Sam Altman ha scritto una lettera alla comunità di Tumbler Ridge, nella Columbia Britannica. “Sono profondamente dispiaciuto per non aver allertato le forze dell’ordine sull’account che era stato bannato a giugno.” La data di quella lettera è il 23 aprile 2026. La strage è avvenuta il 10 febbraio. Otto persone sono morte, di cui cinque studenti e un assistente didattico. Jesse Van Rootselaar, 18 anni, aveva prima ucciso la madre e il fratellastro di 11 anni in casa, poi si era recata alla scuola secondaria di Tumbler Ridge aprendo il fuoco. Prima di tutto questo, per mesi, aveva usato ChatGPT per descrivere scenari di violenza armata.
OpenAI lo sapeva. Nel giugno 2025 il sistema automatico di monitoraggio aveva flaggato il primo account di Van Rootselaar per attività “violenta” e lo aveva disabilitato. Un team di revisori umani aveva esaminato il caso e concluso che non c’era una “pianificazione credibile e imminente” di violenza. La soglia per contattare la polizia non era stata raggiunta. Van Rootselaar aveva allora creato un secondo account. Il sistema progettato per catturare i recidivi non lo aveva identificato. OpenAI ha scoperto il secondo account solo dopo che l’RCMP ha diffuso il nome dell’attentatrice.
La domanda che ossessiona Tumbler Ridge, e ora tutto il dibattito sull’AI, è semplice: se avessero chiamato la polizia a giugno, qualcuno di quegli otto sarebbe ancora vivo?
Una scusa sette settimane dopo
Altman aveva promesso le scuse a inizio marzo, dopo un incontro con il premier della Columbia Britannica David Eby e il sindaco di Tumbler Ridge Darryl Krakowka. Ci sono volute sette settimane per arrivare alla lettera pubblicata dal giornale locale Tumbler RidgeLines. “Nessuno dovrebbe mai dover sopportare una tragedia del genere. Non riesco a immaginare niente di peggio al mondo che perdere un figlio,” ha scritto Altman. “Il mio cuore resta con le vittime, le loro famiglie, tutti i membri della comunità e della provincia della Columbia Britannica.”
Le parole del premier Eby, pubblicate su X, sono state più dirette: la scusa di Altman è “necessaria, e tuttavia grossolanamente insufficiente per la devastazione inflitta alle famiglie di Tumbler Ridge.” Eby ha anche chiesto al governo federale canadese di stabilire una soglia standardizzata che obblighi le aziende di AI a segnalare alle forze dell’ordine usi problematici delle loro piattaforme.
Intanto una famiglia ha già fatto causa. A marzo, la madre di Maya Gebala, 12 anni, ha presentato una causa civile contro OpenAI. Maya è stata colpita tre volte durante la sparatoria: al collo, alla testa (appena sopra l’occhio sinistro). Stava cercando di chiudere a chiave la porta della biblioteca per proteggere gli altri studenti. La causa sostiene che il chatbot ha fornito “informazioni, guida e assistenza” su come portare a termine l’attacco, e che OpenAI aveva “conoscenza specifica” dell’uso di ChatGPT per pianificare un evento di strage. OpenAI non ha commentato la causa. Le accuse non sono state provate in tribunale.
Il caso della Florida: un’indagine penale
Tumbler Ridge non è isolata. In Florida, il procuratore generale James Uthmeier ha aperto un’indagine penale su OpenAI dopo aver esaminato i log delle conversazioni tra ChatGPT e Phoenix Ikner, lo studente della Florida State University accusato di aver ucciso due persone e ferito sei altre in una sparatoria al campus. Secondo Uthmeier, ChatGPT ha consigliato a Ikner che tipo di pistola usare, quale munizione procurarsi, se un’arma sarebbe stata utile a corto raggio, a che ora del giorno ci fosse più gente nel campus e dove trovare concentrazioni più alte di studenti.
“Se ChatGPT fosse una persona, anche lui affronterebbe accuse di omicidio,” ha dichiarato Uthmeier durante una conferenza stampa a Tampa il 21 aprile. La sua office ha emesso mandati di comparizione che richiedono le policy di OpenAI, i materiali di training interni, gli organigrammi e dettagli su quando l’azienda segnala “possibili crimini passati, presenti e futuri” pianificati usando ChatGPT.
La difesa di OpenAI, esposta dalla portavoce Kate Waters, è lineare: “La sparatoria alla Florida State University dell’anno scorso è stata una tragedia, ma ChatGPT non è responsabile di questo crimine terribile.” L’azienda sostiene che il bot ha fornito risposte fattuali a domande con informazioni già disponibili in fonti pubbliche online, e che non ha “incoraggiato o promosso attività illegali o dannose.”
Il problema è che la distanza tra “informazioni disponibili online” e “consiglio mirato per una strage” si sta assottigliando. Un modello linguistico può combinare dati pubblici in modo quasi istantaneo, filtrandoli attraverso le domande specifiche di chi sta pianificando un attacco. Come ha osservato un funzionario della procura della Florida, l’AI può “combinare quasi istantaneamente dati pubblici in modi nuovi” con impatti potenzialmente letali.
La soglia del dovere di avvertire
Quello che sta cambiando con Tumbler Ridge non è la tecnologia, ma il quadro legale e morale che la circonda. Fino a ieri, il dibattito era: le piattaforme di AI possono rilevare minacce? Oggi la domanda è diventata: le piattaforme di AI devono rilevare minacce e segnalarle?
È lo stesso percorso che hanno fatto i social media con il materiale di abuso su minori. Quello che era iniziato come cooperazione volontaria si è trasformato in obbligo di segnalazione, poi in obbligo di rilevamento tecnico, infine in sanzioni sostanziose per chi non rispetta le regole. Per le piattaforme di AI, questa transizione rischia di essere molto più rapida.
Il parallelo con il dovere di avvertire (duty to warn) che già esiste per terapisti, insegnanti e medici in molte giurisdizioni nordamericane è esplicito. In quei casi, la legge stabilisce che un professionista che venga a conoscenza di una minaccia credibile contro una terza persona ha l’obbligo di avvertire le autorità o la potenziale vittima. OpenAI, con le sue scuse, ha ammesso che lo stesso principio dovrebbe applicarsi alle piattaforme di AI.
La complessità operativa è enorme. OpenAI processa miliardi di interazioni ogni giorno. I falsi positivi potrebbero inondare le forze dell’ordine di segnalazioni inutili. I falsi negativi portano alle conseguenze che abbiamo visto a Tumbler Ridge. E le giurisdizioni complicano tutto: un obbligo di segnalazione negli Stati Uniti potrebbe violare le leggi sulla privacy in Europa o confliggere con le normative sulla localizzazione dei dati in Cina.
Cosa sta cambiando a San Francisco
OpenAI ha annunciato cambiamenti concreti. La vicepresidente per le policy globali Ann O’Leary ha dichiarato a febbraio che l’azienda ha rafforzato i propri protocolli: se le regole attuali fossero state in vigore a giugno 2025, l’account di Van Rootselaar sarebbe stato segnalato alle forze dell’ordine. L’azienda ha stabilito un punto di contatto diretto con l’RCMP e sta implementando criteri più flessibili per determinare quando un account segnalato va riferito alle autorità. Ha anche aggiunto protocolli per indirizzare le persone in crisi verso servizi di supporto locali.
Resta il fatto che il sistema non ha catturato il secondo account di Van Rootselaar. Un buco che solleva domande sulla capacità tecnica di tracciare utenti che aggirano i ban, e che la scusa di Altman non affronta direttamente.
Il ministro federale canadese per l’intelligenza artificiale Evan Solomon ha riferito che Altman si è impegnato a collaborare con tutti i livelli di governo per evitare che “qualcosa del genere non accada mai più.” Un’indagine del coroner, ancora da programmare, dovrà esaminare il ruolo specifico dell’AI nella tragedia.
Nel frattempo, le famiglie di Tumbler Ridge continuano a vivere con le conseguenze di una decisione presa a migliaia di chilometri di distanza, in un ufficio di San Francisco, da revisori che hanno guardato lo stesso account e hanno deciso che la soglia non era raggiunta. Otto persone non ci sono più. E la domanda su quante di loro sarebbero ancora qui se qualcuno avesse fatto una telefonata all’RCMP a giugno 2025 è una domanda che non avrà mai una risposta, ma che d’ora in poi ogni piattaforma di AI dovrà fare propria.