La corsa all’intelligenza artificiale sembra essere diventata uno degli obiettivi cardine per qualsiasi azienda tecnologica. Mentre il CEO di Microsoft, Satya Nadella, ha recentemente rivelato che OpenAI ha avuto un vantaggio di due anni nella corsa all’AI, lavorando senza concorrenti per sviluppare ChatGPT, altri laboratori AI di punta, come Anthropic e Google, stanno rapidamente recuperando terreno. C’è, invece, chi fatica.
Meta, infatti, sembra al momento arrancare, faticando a mantenere il passo. Secondo comunicazioni interne emerse durante una causa legale di rilievo per violazione del copyright, Meta avrebbe utilizzato contenuti protetti da copyright per addestrare i suoi modelli di intelligenza artificiale, cercando al contempo di coprire le proprie tracce per evitare problematiche legali legate alla violazione del copyright.
Queste tattiche discutibili sarebbero state adottate dall’azienda per accelerare il processo di recupero nei confronti della rapida evoluzione di OpenAI nel panorama dell’intelligenza artificiale.
In un’email inviata al ricercatore di Meta AI, Hugo Touvron, dal vicepresidente del settore intelligenza artificiale generativa di Meta, si legge della necessità dell’azienda di raggiungere risultati simili a quelli di GPT-4.
Tuttavia, i dettagli più controversi relativi ai piani di Meta includono l’utilizzo del sito di pirateria libraria “Library Genesis (LibGen), per addestrare i propri modelli. Secondo il rapporto di The Verge, un’altra email del direttore del prodotto di Meta, Sony Theakanath, indirizzata a Joelle Pineau, vicepresidente della ricerca AI, cercava chiarimenti sull’uso dei dati di LibGen per benchmark interni o per l’addestramento di modelli di intelligenza artificiale.
L’email indicava che l’AI generativa aveva ricevuto l’approvazione per utilizzare LibGen per Llama3, ma con alcune limitazioni, tra cui la rimozione dei dati etichettati come piratati o rubati, senza però rivelare che il modello era stato addestrato con tali dati.
Ancora, la mail evidenzierebbe anche i potenziali rischi politici derivanti dall’addestramento dei modelli di AI con contenuti protetti da copyright, inclusi possibili interventi degli enti regolatori in seguito alla copertura mediatica di eventuali pratiche di Meta legate alla violazione del copyright.
Per tutti gli articoli dedicati all’intelligenza artificiale si parte da questa pagina di macitynet.