Nel giugno 2024, la RIAA ha portato Suno in tribunale per conto di Sony Music, Universal Music Group e Warner Records. Nella causa, depositata presso il tribunale federale del Massachusetts, le major accusano la startup di aver copiato e usato registrazioni protette per addestrare il proprio modello senza licenza. Non è un dettaglio tecnico: è il cuore del business dell’AI musicale. Se quei dataset contengono brani commerciali usati senza autorizzazione, il problema non riguarda solo Suno, ma l’intero settore.
Hook: Le canzoni generate in pochi secondi da Suno sembrano magia. Le carte processuali raccontano un’altra storia: training opaco, opere protette e un conflitto che può riscrivere le regole della musica nell’era dell’AI.
Fino a pochi mesi fa Suno era soprattutto il nome di uno degli strumenti più impressionanti della nuova ondata generativa: basta un prompt testuale e il sistema produce una canzone completa, con voce, arrangiamento e atmosfera coerente. Poi è arrivato lo scontro frontale con l’industria discografica. E da quel momento una domanda è diventata impossibile da aggirare: da dove arriva davvero la “conoscenza musicale” di questi modelli?
Il caso Suno, con date e accuse precise
Il 24 giugno 2024, la Recording Industry Association of America ha annunciato due cause separate contro Suno e Udio, presentate rispettivamente in Massachusetts e a New York per conto delle tre major. Nel caso contro Suno, l’accusa centrale è la violazione massiva del copyright su registrazioni sonore protette. Secondo i ricorrenti, il modello sarebbe stato addestrato copiando opere coperte da diritto d’autore su larga scala, senza chiedere permessi né pagare licenze.
La contestazione non si ferma all’addestramento. Le etichette sostengono che i sistemi di questo tipo possano anche generare output che imitano in modo troppo vicino stili, strutture e caratteristiche riconoscibili di brani esistenti, erodendo il valore commerciale del catalogo musicale. In termini legali, il nodo non è solo la somiglianza percepita, ma la riproduzione iniziale delle opere durante il training: un atto che, secondo i ricorrenti, richiede autorizzazione ai sensi del Copyright Act statunitense.
La norma chiave è il Titolo 17 dello U.S. Code, in particolare i diritti esclusivi riconosciuti ai titolari dall’articolo 106: riproduzione, preparazione di opere derivate, distribuzione e, in alcuni casi, esecuzione pubblica. La difesa delle aziende di AI tende a fare leva sul fair use, previsto dalla Section 107. Ma nel caso della musica il terreno è più scivoloso che altrove, perché qui l’input non è un corpus di testo informativo: è un mercato vivo, altamente licenziato, in cui ogni uso di registrazioni, composizioni e campioni ha già da anni un prezzo e un perimetro contrattuale.
Perché la musica è un caso più esplosivo di testo e immagini
Nel dibattito sull’AI generativa si sente spesso ripetere che tutti i modelli “imparano da grandi quantità di dati”. È vero, ma nella musica questa formula astratta regge poco. Le registrazioni sonore sono beni fortemente tracciati, gestiti da filiere industriali e società di collecting, con licenze per sincronizzazione, campionamento, riproduzione meccanica e streaming. Non siamo davanti a un archivio internet indistinto: siamo dentro un ecosistema in cui i diritti sono già monetizzati in modo capillare.
Per questo il caso Suno pesa così tanto. Se un modello viene addestrato usando milioni di tracce commerciali senza accordi, il rischio non è solo una controversia teorica sul fair use. Il rischio è la disintermediazione di un intero mercato delle licenze. Da qui l’idea, sostenuta dalle major, che l’AI musicale non stia semplicemente “studiando” la musica, ma stia sfruttando un catalogo protetto per costruire un prodotto concorrente.
È anche il motivo per cui le analogie con i chatbot testuali convincono solo fino a un certo punto. Un modello linguistico produce frasi; un generatore musicale come Suno produce file audio che possono sostituire, almeno in parte, musica commerciale destinata a creator, pubblicità, contenuti social o sottofondi video. In altre parole, il danno economico potenziale è più immediato e più facile da raccontare in aula.
La difesa di Suno e il precedente che tutti osservano
Suno non è rimasta in silenzio. Dopo l’avvio della causa, l’azienda ha sostenuto che il proprio sistema sarebbe progettato per generare nuova musica e che il training di modelli generativi rientrerebbe in una pratica trasformativa, quindi compatibile con il fair use. È una linea difensiva già vista in altre controversie sull’AI.
Ma qui c’è un elemento che rende il caso particolarmente delicato. In un’istanza presentata nell’agosto 2024, i legali di Suno hanno riconosciuto che il modello è stato addestrato su “essentially all music files of reasonable quality that are accessible on the open internet”. Una frase che ha avuto un forte impatto mediatico e legale, perché sembra confermare l’uso vastissimo di materiale reperito online, senza però chiarire in che misura quel materiale fosse coperto da licenza o da eccezioni legali. È esattamente il tipo di ammissione che rafforza la tesi delle major: l’AI musicale avrebbe prosperato grazie a un accesso di fatto indiscriminato ai cataloghi esistenti.
Qui entra in gioco un precedente che tutto il settore osserva con attenzione, anche se appartiene a un altro dominio: Authors Guild v. Google, la lunga vicenda su Google Books, conclusa con il riconoscimento del fair use per la scansione di libri a fini di ricerca e indicizzazione. Le aziende di AI sperano che tribunali e opinione pubblica vedano un parallelo. L’industria musicale, invece, insiste sulla differenza decisiva: Google Books non vendeva romanzi concorrenti ai libri scannerizzati; un generatore musicale, invece, può produrre audio che compete nel mercato creativo.
Non è solo una causa: è una battaglia su licenze, trasparenza e potere negoziale
Dietro il contenzioso c’è una questione molto concreta: chi controllerà la materia prima dell’AI musicale nei prossimi anni. Se i tribunali riconoscessero ampio spazio al fair use per il training, le piattaforme avrebbero un incentivo forte a costruire modelli senza passare da accordi con le etichette. Se invece prevalesse la lettura delle major, l’addestramento su musica protetta diventerebbe di fatto un mercato da licenziare.
Ed è qui che il caso Suno smette di essere solo un processo e diventa una partita industriale. Le grandi case discografiche non stanno difendendo soltanto il principio del consenso. Stanno difendendo anche la loro posizione negoziale in un possibile futuro in cui i modelli di generazione musicale avranno bisogno di accesso legittimo ai cataloghi. Un accesso che, ovviamente, si paga.
Il punto più debole dell’attuale ecosistema è la trasparenza. Le aziende che sviluppano modelli generativi raramente pubblicano liste dettagliate dei dataset usati. Questo rende difficile per artisti, editori e titolari dei diritti verificare se le loro opere siano state incluse. Nel frattempo, sul piano normativo, le risposte restano incomplete.
Le regole che mancano, negli Stati Uniti e in Europa
Negli Stati Uniti non esiste oggi una legge specifica che disciplini in modo organico il training dei modelli generativi su opere protette. Il quadro è ancora affidato all’interpretazione del Copyright Act e, soprattutto, al fair use caso per caso. È uno scenario che favorisce il contenzioso: prima si addestra, poi si litiga in tribunale.
In Europa il quadro è diverso ma non risolutivo. La direttiva DSM 2019/790 ha introdotto eccezioni per il text and data mining, ma con meccanismi distinti e, nel caso commerciale, con possibilità per i titolari dei diritti di riservarsi l’uso delle proprie opere. Il problema è che applicare queste regole ai modelli generativi multimodali e ai grandi dataset audio non è sempre semplice, soprattutto quando i materiali vengono raccolti da fonti globali. L’AI Act europeo, inoltre, aggiunge obblighi di trasparenza per i modelli di uso generale, inclusa la pubblicazione di un summary dei contenuti usati per l’addestramento, ma non risolve da solo il nodo della liceità del training sul piano del copyright.
Tradotto: un po’ più di disclosure potrebbe arrivare, ma non basta a sanare eventuali usi non autorizzati.
Il vero rischio per Suno è che il prodotto funzioni troppo bene
C’è un paradosso interessante in questa vicenda. Suno ha attirato attenzione proprio perché i risultati sono convincenti: brani completi, cantati, spesso credibili al primo ascolto. Ma più questi strumenti diventano utili, più diventa difficile sostenere che siano semplici esperimenti neutri o motori di ricerca creativi. Se una piattaforma consente di generare in pochi secondi una traccia “alla maniera di” certi generi, epoche o sensibilità vocali, il confine tra ispirazione statistica e appropriazione economica si assottiglia.
Non serve neppure arrivare al plagio diretto. Per il mercato basta molto meno. Un creator che prima acquistava una licenza per una base musicale può ora produrre un’alternativa sintetica. Un’agenzia può generare jingle invece di commissionarli. Una software house può usare musica AI-generated per ridurre i costi. Sono tutti casi in cui l’output non deve necessariamente copiare una canzone esistente per avere un impatto sul valore del lavoro umano e dei cataloghi protetti.
È questo che rende Suno un “copyright nightmare”, per usare la formula scelta da The Verge: non solo la possibilità di aver usato musica senza licenza per addestrarsi, ma il fatto che quel training possa diventare la base di un prodotto capace di sostituire segmenti interi del mercato musicale.
Cosa succede adesso
Nel breve periodo, il contenzioso contro Suno sarà un test giuridico sulla portata del fair use applicato all’AI musicale. Nel medio periodo, però, lo scenario più realistico potrebbe essere un altro: più accordi commerciali, più dataset autorizzati, più strumenti di opt-out e identificazione delle opere usate nel training.
Non perché il settore scelga spontaneamente la trasparenza, ma perché la pressione legale e reputazionale sta salendo. Già oggi la strategia più credibile per chi sviluppa AI musicale non sembra essere la fuga in avanti, bensì la costruzione di pipeline di dati più pulite, tracciabili e licenziate.
Suno resta uno dei casi emblematici del 2024 perché mette a nudo il problema senza filtri. L’AI può generare musica sorprendente. Ma se quel risultato nasce da cataloghi protetti usati senza consenso, l’innovazione smette di apparire inevitabile e comincia a sembrare, più semplicemente, un’enorme estrazione di valore da opere altrui. E in tribunale, questa differenza pesa.