Encyclopaedia Britannica e Merriam-Webster hanno portato OpenAI in tribunale a New York, sostenendo che i loro contenuti siano stati usati senza autorizzazione per addestrare ChatGPT e altri modelli della società. Non è l’ennesima causa simbolica: nella denuncia si parla di quasi 100 mila voci, definizioni e articoli, di riproduzioni quasi letterali e di un danno economico diretto, perché le risposte generate dall’AI finirebbero per sostituire il traffico verso i siti originali.
Il punto, però, va oltre il copyright. Britannica accusa OpenAI anche di intaccare il valore del proprio marchio quando il chatbot attribuisce al gruppo informazioni inesatte o inventate, facendo apparire come autorevole ciò che autorevole non è. In altre parole: non solo uso non autorizzato dei contenuti, ma anche rischio reputazionale.
Indice
Cosa contesta Britannica
Secondo l’atto depositato presso la U.S. District Court for the Southern District of New York, OpenAI avrebbe copiato su larga scala materiali protetti di Encyclopaedia Britannica e del dizionario Merriam-Webster per l’addestramento dei propri sistemi. La denuncia sostiene che ChatGPT sia poi in grado di restituire risposte che riprendono in forma verbatim o quasi verbatim parti sostanziali di quei testi, oppure loro riassunti così vicini all’originale da svolgere, di fatto, la stessa funzione editoriale.
La contestazione è doppia. Da una parte c’è la violazione del diritto d’autore. Dall’altra c’è il tema del marchio: Britannica sostiene che quando un sistema generativo produce allucinazioni e le collega implicitamente o esplicitamente al suo nome, il danno non riguarda solo l’accuratezza dell’informazione, ma la fiducia accumulata in oltre due secoli di attività editoriale.
La società chiede risarcimenti economici e un ordine del tribunale che blocchi le condotte ritenute illecite. È un passaggio importante, perché sposta il baricentro del contenzioso dal semplice principio giuridico alla sostenibilità concreta del modello editoriale online.
Perché questa causa conta
Negli ultimi mesi il conflitto tra editori e aziende AI si è allargato, ma il caso Britannica ha un peso specifico particolare. Non si tratta di un quotidiano, di una media company generalista o di un archivio fotografico: qui al centro ci sono contenuti di riferimento, cioè materiali costruiti per essere consultati come base affidabile di conoscenza. Se un giudice dovesse riconoscere che un modello può assorbirli e riproporli senza licenza, il colpo andrebbe al cuore del valore economico di chi investe in accuratezza, revisione e aggiornamento continuo.
Per questo la causa interessa molto più dei legali. Interessa gli editori che stanno cercando accordi commerciali con i laboratori AI. Interessa le startup di ricerca conversazionale, perché il confine tra risposta sintetica e sostituzione dell’opera originale è sempre più sottile. E interessa anche gli utenti, che vedono risposte sempre più fluenti ma non sempre distinguono fra rielaborazione lecita, citazione indiretta e ricostruzione troppo vicina all’originale.
Il nodo economico è semplice: se la risposta dell’assistente soddisfa già tutto il bisogno informativo, il sito fonte perde visita, pagina vista, abbonamento potenziale e, con il tempo, capacità di finanziare nuova conoscenza. Britannica prova a trasformare questa intuizione in un argomento giuridico strutturato.
La linea di difesa di OpenAI
OpenAI, nelle dichiarazioni rese ai media internazionali, continua a sostenere che i propri modelli siano addestrati su dati pubblicamente disponibili e che l’uso rientri nella dottrina del fair use. È la linea già vista in altre controversie: il training non sarebbe una copia sostitutiva dell’opera, ma un passaggio trasformativo necessario a generare un sistema capace di produrre output nuovi.
Il problema, per le aziende del settore, è che questa difesa diventa più fragile quando entrano in gioco due elementi insieme: la capacità di riprodurre formulazioni molto vicine all’originale e l’eventuale attribuzione impropria a marchi editoriali riconoscibili. In quel caso la partita non si gioca solo sul diritto d’autore, ma anche sulla concorrenza informativa e sulla protezione del brand.
Non a caso la stessa Britannica aveva già avviato un altro scontro legale contro Perplexity. Il segnale è chiaro: una parte dell’industria editoriale non vuole più limitarsi a negoziare da una posizione debole, ma provare a ridefinire in tribunale il rapporto di forza tra chi produce contenuti e chi costruisce interfacce di risposta sopra quei contenuti.
Che cosa può cambiare adesso
Nel breve periodo questa causa non fermerà l’adozione dei chatbot, ma può accelerare tre tendenze. La prima è un aumento degli accordi di licensing, soprattutto per database, archivi e contenuti premium. La seconda è una maggiore pressione sui modelli perché rendano più trasparente l’origine delle informazioni usate nelle risposte. La terza è un possibile ripensamento dell’esperienza utente: meno “risposta definitiva” e più inviti a consultare la fonte primaria quando il contenuto deriva da opere protette.
Per OpenAI il rischio non è solo economico. C’è anche una questione di narrativa industriale. Fin qui i laboratori di AI hanno difeso il training come motore di innovazione. Gli editori, invece, stanno cercando di imporre un’altra lettura: innovazione sì, ma non a costo zero e non scaricando sui produttori di contenuti il prezzo della crescita del settore.
È qui che la causa Britannica diventa un test politico oltre che giuridico. Se i contenuti di riferimento non riescono a difendersi, il messaggio per il resto del web sarà brutale. Se invece ottengono una vittoria, anche parziale, il mercato dell’AI dovrà abituarsi all’idea che la qualità informativa ha un costo e che quel costo non può essere cancellato da un prompt ben scritto.