Qual è il prezzo del dominio? Adesso possiamo provare a mettere una cifra in risposta a questa domanda. Infatti, Anthropic ha deciso di pagare 1,5 miliardi di dollari per chiudere la controversia legale sui libri scaricati illegalmente e utilizzati per addestrare i propri modelli di intelligenza artificiale. La cifra rappresenta il più grande risarcimento nella storia del copyright statunitense, con tremila dollari per ciascuna delle 500mila opere coinvolte.
L’accordo arriva dopo una sentenza parzialmente favorevole del giudice William Alsup, che aveva stabilito come legale l’addestramento con materiale acquisito legalmente, ma illegale l’uso di “biblioteche pirata” come Library Genesis. La startup fondata da Dario Amodei si è affrettata a sottolineare di non aver mai utilizzato il materiale piratato nei modelli rilasciati pubblicamente.
Il tempismo dell’accordo non è casuale: arriva infatti subito dopo il maxi-round di finanziamento che ha portato nelle casse di Anthropic 13 miliardi di dollari, triplicando la valutazione dell’azienda a 183 miliardi. Con questo tesoretto di guerra, l’azienda può permettersi di pagare una somma che per altre startup rappresenterebbe la condanna a morte.

Cosa serve per sedersi al tavolo e giocare
A questo punto possiamo dire che, a saper leggere tra le righe, il messaggio ai concorrenti è chiaro: chi vuole giocare in questa partita deve avere le tasche molto profonde. Mentre OpenAI, xAI e i giganti tecnologici come Google, Microsoft e Meta possono sostenere simili esborsi, la gran parte delle startup dell’intelligenza artificiale si trova improvvisamente tagliata fuori dal mercato. Il comportamento anti-competitivo di Anthropic sta tutto qua.
L’accordo stabilisce di fatto un nuovo prezzo di ingresso nel settore dell’intelligenza artificiale, trasformando quello che doveva essere un risarcimento in una barriera all’entrata. Come ha osservato il venture capitalist M.G. Siegler, Anthropic potrebbe aver appena compiuto una mossa alla Michael Corleone, eliminando i nemici in una sola notte.
Ogni startup che abbia utilizzato dataset contenenti materiale protetto da copyright dovrà ora fare i conti con questo precedente legale. La lezione per gli sviluppatori è duplice: rispettare il copyright nell’acquisizione dei dati e prepararsi a pagare cifre astronomiche se si viene scoperti a non averlo fatto.

L’etica come arma competitiva
Il caso Anthropic rivela le contraddizioni di un settore che predica l’innovazione responsabile mentre pratica strategie commerciali aggressive. Anthropic si è sempre posizionata come l’alternativa etica a OpenAI, enfatizzando sicurezza e trasparenza nei propri modelli. Quelli “bravi”, insomma.
Tuttavia, l’ammissione di aver scaricato materiale dalle “biblioteche pirata” e la successiva decisione di pagare 1,5 miliardi per chiudere la questione solleva interrogativi sulla reale natura di queste preoccupazioni etiche. Nei circoli della finanza, dove si applica il detto “segui i soldi” e non certo la valutazione da oratorio, la mossa viene interpretata come un modo per consolidare la propria posizione dominante eliminando la concorrenza piuttosto che come genuino pentimento per errori del passato.
Il settore dell’intelligenza artificiale si è costruito su fondamenta traballanti dal punto di vista legale, utilizzando massicciamente contenuti protetti da copyright senza autorizzazione. Mentre Anthropic ha risolto con un assegno, altri giganti come Meta e OpenAI affrontano ancora cause legali per pratiche simili.
Sappiamo infatti da altre vie, tramite la documentazione processuale raccolta, che anche dipendenti di Meta hanno utilizzato Library Genesis, definendolo esplicitamente “un dataset che sappiamo essere piratato”. Questo approccio “prima sviluppa, poi chiedi scusa” ha caratterizzato l’intero settore, ma ora che i primi conti arrivano, solo chi ha le risorse per pagarli potrà continuare a giocare.
La mossa del cavallo
Negli scacchi ci sono numerose combinazioni che prevedono il sacrificio di un pezzo, anche importante, per guadagnare un vantaggio che porta allo scacco matto. L’accordo di Anthropic ha questo sapore: ridisegna il panorama competitivo dell’intelligenza artificiale, favorendo la concentrazione del mercato nelle mani di pochi attori con disponibilità finanziarie praticamente illimitate.
Adesso le startup emergenti si trovano davanti a un dilemma: o trovano modi per addestrare i modelli utilizzando esclusivamente contenuti liberi da copyright, con tutte le limitazioni che questo comporta, o accettano il rischio di dover pagare somme proibitive in futuro.
Questa dinamica potrebbe semplicemente soffocare l’innovazione dal basso, lasciando spazio solo a chi può permettersi di “comprare” la propria strada verso la leadership tecnologica. Il risultato paradossale è che l’industria dell’intelligenza artificiale, nata per democratizzare l’accesso alla conoscenza, rischia di diventare il regno esclusivo di pochi oligopolisti.
Insomma, ancora meglio di quando Sam Altman si era messo a strillare che l’AI è pericolosa e che il settore andava pesantemente regolamentato: un altro modo per congelare la situazione di vantaggio (all’epoca a tutto favore ovviamente di OpenAI), fermando tutti gli altri con lacci e legacci legali. Idee geniali quanto spregiudicate.
La nuova geografia del potere nell’AI
In tutto questo noi dove siamo? Domanda lecita, risposta tragica. L’Europa si trova in una posizione particolarmente delicata in questo nuovo scenario, con le sue normative stringenti sull’intelligenza artificiale che potrebbero trasformarsi da vantaggio competitivo in zavorra economica. Mentre l’AI Act europeo punta sulla regolamentazione e la trasparenza, i colossi americani utilizzano le proprie risorse finanziarie per creare barriere all’entrata che nessuna startup europea può superare.
Non serve un mago o un indovino per vedere che le aziende del Vecchio Continente rischiano di rimanere intrappolate tra la compliance normativa e l’impossibilità di competere sui dataset, trovandosi tagliate fuori dal mercato globale. Il paradosso è che proprio le regole pensate per proteggere i diritti potrebbero finire per consegnare il monopolio dell’innovazione ad aziende che possono permettersi di infrangere prima e pagare dopo. Un bel paradosso, vero?

Senza confini
La strategia di Anthropic potrebbe ispirare imitatori tra i giganti tecnologici, creando una nuova forma di guerra commerciale basata sul copyright come arma. Amazon, Microsoft e Google potrebbero decidere di seguire l’esempio, utilizzando le proprie riserve di cassa per stabilire precedenti legali sempre più costosi per i concorrenti. Questa escalation trasformerebbe le cause per violazione del copyright da rischio legale in strumento di consolidamento del mercato.
In pratica, si farebbe ricerca senza riguardo per i danni e le violazioni, tanto poi ci sono i soldi per pagare la multa. È un po’ come l’idea di chi ha la Ferrari che parcheggia dove vuole tanto poi per lui la multa sono spiccioli, mentre chi ha l’utilitaria e prende una multa non ha più i soldi per andare a mangiare la pizza con gli amici da tanto è tirato. La competizione si sposterebbe insomma dai laboratori di ricerca alle aule di tribunale, dove vince chi ha il portafoglio più gonfio piuttosto che la tecnologia migliore.
Ma non c’è solo questo. Infatti, l’impatto sui creatori di contenuti presenta anch’esso luci e ombre difficili da decifrare. Da un lato, l’accordo da 1,5 miliardi stabilisce un precedente importante per il valore economico della proprietà intellettuale nell’era dell’intelligenza artificiale.
Gli autori e gli editori possono ora puntare a compensi significativi per l’utilizzo dei loro lavori nell’addestramento dei modelli AI. Dall’altro, la concentrazione del potere nelle mani di pochi attori potrebbe limitare la diversità dei partner commerciali, costringendo i creatori ad accettare le condizioni imposte dai pochi player rimasti in grado di pagare.
Infine, questo caso solleva interrogativi fondamentali sulla sostenibilità del modello di sviluppo dell’intelligenza artificiale quando viene basato sull’acquisizione massiva di dati. L’industria dovrà trovare alternative più sostenibili dal punto di vista legale ed economico, dalle partnership dirette con gli editori ai modelli addestrati su dataset sintetici.
Tuttavia, queste soluzioni richiedono investimenti significativi in ricerca e sviluppo, privilegi che solo le aziende con ampie risorse possono permettersi. Il risultato è un circolo vizioso dove la ricerca di alternative legali diventa essa stessa un fattore di concentrazione del mercato, allontanando ulteriormente le startup dalla possibilità di competere ad armi pari.
E se la strada fosse comunque sbagliata?
Senza contare che c’è un altro problema all’orizzonte: la valutazione enorme di aziende come OpenAI e Anthropic deriva dal fatto che ci si aspetta (sono loro a dirlo, dopotutto) che riescano a scalare al punto da creare l’intelligenza artificiale generale, o AGI.
Questa idea, che i modelli attuali diventando sempre più grandi possano fare il salto di qualità e diventare praticamente “intelligenti come noi” è molto criticata da tanti ricercatori, anche autorevoli, i quali sostengono che non è così che andrà. A prescindere che si possa raggiungere il Santo Graal dell’AGI, la strada potrebbe non essere questa. E quindi tutti questi soldi vengono sostanzialmente bruciati sull’altare di progetti inutili.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di Macitynet.














