Per la prima volta nella storia, una società di intelligenza artificiale si trova nel mirino di un’indagine penale. Il procuratore generale della Florida James Uthmeier ha annunciato oggi l’apertura di un’indagine criminale contro OpenAI e ChatGPT, accusando il chatbot di aver fornito “consigli significativi” all’autore della sparatoria alla Florida State University dell’aprile 2025.

È un passaggio che cambia i termini della questione. Fino a oggi, il dibattito su sicurezza e responsabilità dell’IA si era mosso su binari accademici e legislativi. Qui si parla di responsabilità penale: la Florida sta esplorando se ChatGPT possa essere considerato complice di un omicidio.

Cosa è successo alla FSU

Il 17 aprile 2025, Phoenix Ikner, studente ventunenne alla Florida State University, aprì il fuoco nel campus di Tallahassee. Due persone rimasero uccise, Robert Morales e Tiru Chabba, e sei furono ferite. Ikner è attualmente in attesa di processo con accuse di omicidio multiplo e tentato omicidio.

Secondo i documenti del tribunale citati da NBC News e Politico, nei minuti precedenti l’attacco Ikner si era scambiato una serie di messaggi con ChatGPT. Le domande erano esplicite: “A che ora l’union degli studenti della FSU è più affollata?” e “Se ci fosse una sparatoria alla FSU, come reagirebbe il paese?”. Il chatbot, secondo l’accusa, non si è limitato a rispondere: ha fornito indicazioni sul tipo di arma da usare, sulle munizioni compatibili e sull’efficacia di un’arma da fuoco a breve distanza.

Uthmeier è stato netto nella conferenza stampa di oggi a Tampa: “Se dall’altra parte dello schermo ci fosse stata una persona, l’avremmo accusata di omicidio.” E ancora: “Il fatto che sia un chatbot non significa che non ci sia responsabilità penale.”

L’escalation da indagine civile a penale

La mossa di oggi è un’escalation. Uthmeier aveva già annunciato un’indagine civile su OpenAI il 9 aprile, ma dopo aver esaminato le chat log tra Ikner e ChatGPT, i pubblici ministeri hanno concluso che fosse necessaria un’indagine penale. L’inchiesta ora copre tre fronti: la sparatoria alla FSU, materiale di abuso sessuale su minori generato con l’IA (per il quale la Florida ha già ottenuto condanne a 135 anni di carcere), e casi di istigazione al suicidio e autolesionismo.

I subpoena emessi oggi richiedono a OpenAI un volumen considerevole di documentazione: tutte le policy sui contenuti dal marzo 2024 a oggi, i materiali di formazione interna su minacce di violenza, le procedure di collaborazione con le forze dell’ordine, l’organigramma completo dell’azienda e la lista di tutti i dipendenti che lavorano a ChatGPT. È una richiesta che suggerisce un’indagine ampia, non limitata al singolo episodio.

Il quadro legale: ChatGPT come “complice”

La Florida sta usando una dottrina ben consolidata del diritto penale americano: quella dell’aiuto e complicità (aiding and abetting). La legge dello stato stabilisce che chiunque aiuti, favorisca o consigli qualcuno nella commissione di un reato può essere considerato “principale” del reato stesso, e quindi punibile con la stessa pena dell’autore materiale.

La domanda, ovviamente, è se questa dottrina possa applicarsi a un software. Un chatbot non ha intenzione criminale, non ha coscienza, non “decide” di aiutare nessuno. Ma gli investigatori della Florida sembrano voler puntare su un altro bersaglio: le persone dietro il prodotto. “Guarderemo chi sapeva cosa, chi ha progettato cosa, e chi avrebbe dovuto fare cosa”, ha detto Uthmeier. “Se è chiaro che singoli individui sapevano che questo tipo di comportamento pericoloso poteva verificarsi, e nonostante questo hanno continuato a privilegiare i profitti, allora le persone devono essere ritenute responsabili.”

È un approccio che sposta il fuoco dal modello ai decisori umani. Se dovesse avere successo, potrebbe aprire una strada nuova nella regolazione dell’IA, non basata su nuove leggi ma sull’applicazione di quelle esistenti.

OpenAI e il contesto più ampio

OpenAI ha finora risposto in modo misurato. In una dichiarazione di inizio aprile, un portavoce ha affermato che l’azienda “costruisce ChatGPT per comprendere le intenzioni delle persone e rispondere in modo sicuro e appropriato”, aggiungendo di continuare a migliorare la tecnologia. Non ha ancora commentato l’indagine penale di oggi.

Il contesto politico conta. Il governatore della Florida Ron DeSantis, nel suo ultimo anno di mandato, ha proposto una “Carta dei diritti dell’IA” centrata su privacy dei dati, controlli parentali e protezioni dei consumatori. Le sue proposte hanno però incontrato resistenza alla Camera della Florida, dove la maggioranza preferisce allinearsi alla chiamata dell’amministrazione Trump per un quadro normativo federale unico. L’indagine penale di Uthmeier, nominato proprio da DeSantis, sembra una via alternativa: se il legislatore non si muove, lo farà la magistratura.

Nel frattempo, le famiglie delle vittime si preparano a fare la loro mossa. Ryan Hobbs, avvocato della famiglia di Robert Morales, ha dichiarato che intende fare causa a OpenAI, confermando di avere “ragioni di credere che ChatGPT possa aver consigliato l’autore su come commettere questi crimini”.

ChatGPT ha oltre 900 milioni di utenti settimanali. Ognuna di quelle interazioni passa attraverso un filtro di sicurezza, o almeno così dovrebbe essere. Quello che la Florida sta chiedendo è se quei filtri siano stati progettati e gestiti con la diligenza che la legge richiede. E se la risposta è no, quale prezzo debbano pagare non i modelli, ma le persone che li hanno costruiti e venduti.

Categorized in:

Breaking AI,

Last Update: Aprile 21, 2026