Anthropic sta indagando su un accesso non autorizzato a Claude Mythos Preview, il modello AI per la cybersecurity che l’azienda stessa considera troppo pericoloso per un rilascio pubblico. Secondo Bloomberg, che per prima ha riportato la notizia il 21 aprile, un piccolo gruppo di utenti ha ottenuto l’accesso attraverso l’ambiente di un fornitore terzo. Lo stesso giorno dell’annuncio.

Mythos non è un chatbot. È uno strumento progettato per individuare vulnerabilità zero-day nei sistemi operativi, nei browser e nel software di base, e farlo in modo autonomo, senza supervisione umana continua. Presentato il 7 aprile all’interno di Project Glasswing, un programma che ne limita l’accesso a circa 40 aziende tra cui Amazon, Apple, Microsoft, Cisco, JP Morgan Chase e Nvidia, il modello può concatenare più falle software in exploit multi-stage. In un test interno riportato da Cyber Press, Mythos è letteralmente uscito da un ambiente sandbox controllato: ha eseguito un exploit per ottenere accesso a internet e ha contattato un ricercatore senza che nessuno glielo chiedesse. Anthropic lo ha descritto come capace di individuare “migliaia” di vulnerabilità in ogni principale sistema operativo e browser. Da qui la decisione di condividerlo solo con aziende selezionate e, a breve, con agenzie del governo federale americano.

Eppure è bastato un gruppo su Discord.

La comunità, che si dedica a scovare informazioni su modelli AI non ancora rilasciati, ha usato bot per setacciare GitHub e altri siti alla ricerca di tracce. Hanno indovinato l’URL del modello basandosi sui pattern storici di Anthropic per gli altri prodotti. Hanno usato account condivisi e API key esposte, assegnate a penetration tester autorizzati. E una persona che lavora per un contractor terzo di Anthropic, secondo Bloomberg, ha fornito assistenza dall’interno.

Il gruppo ha avuto accesso regolare a Mythos per almeno due settimane. Ha fornito a Bloomberg screenshot e una dimostrazione dal vivo. I membri sostengono di essere interessati a “giocare con i nuovi modelli, non a fare danni”. Una rassicurazione sottile, quando lo strumento in questione può automatizzare attacchi informatici contro qualsiasi infrastruttura.

Il paradosso della sicurezza

Anthropic ha costruito Mythos per la difesa: le aziende lo usano per trovare e correggere vulnerabilità prima degli attaccanti. Il Segretario al Tesoro Scott Bessent ha convocato una riunione con banchieri americani per incoraggiarne l’adozione. Tra i tester ci sono Goldman Sachs, Citigroup, Bank of America, Morgan Stanley. L’obiettivo ha senso: se puoi automatizzare la scoperta di falle, le chiudi prima che un attaccante le trovi per primo. Ma ogni strumento offensivo è anche un’arma potenziale, e la storia della cybersecurity è piena di difese trasformate in vettori d’attacco. Mythos non fa eccezione.

Gabrielle Hempel, security operations strategist di Exabeam, lo ha detto senza giri di parole:

“Il vero problema è che questo modello non doveva essere accessibile a un pubblico ampio. È stato ristretto a un piccolo gruppo per il rischio di doppio uso, e nonostante ciò è trapelato quasi subito attraverso l’ambiente di un contractor.”

Steve Povolny, VP di AI Strategy presso la stessa azienda, è andato oltre: se ottenere l’accesso al modello di sicurezza più discusso del momento è stato “relativamente facile”, è probabile che un gruppo molto più ampio avrà Mythos tra le mani “molto prima del previsto”. Non sono parole astratte: stiamo parlando di un modello che in un test ha scavalcato da solo le proprie restrizioni di sicurezza per raggiungere internet.

Le reazioni si moltiplicano

La vicenda ha generato reazioni a catena. L’amministrazione Trump ha convocato l’CEO Dario Amodei alla Casa Bianca. I regolatori finanziari di Australia e Corea del Sud hanno espresso preoccupazioni sulla stabilità del sistema bancario. I paesi dell’UE hanno emesso avvertimenti formali sulle potenzialità di misuse del modello. È raro che un singolo prodotto tecnologico generi contemporaneamente questo livello di attenzione istituzionale.

Ma la domanda centrale non riguarda solo Mythos. Se il modello più controllato dell’industria AI è stato accessibile a un gruppo di appassionati su Discord il giorno del lancio, cosa succederà con modelli meno sorvegliati? La sicurezza basata sul perimetro, chiudere a chiave e distribuire le chiavi a pochi, mostra i suoi limiti quando la catena di fornitura ha decine di anelli e ogni anello è un potenziale punto di ingresso. Nei prossimi mesi, altri laboratori rilasceranno modelli con capacità simili. La corsa alla cybersecurity AI è partita. Quello che non è chiaro è se la difesa arriverà prima dell’attacco, o se stiamo distribuendo armi cariche sperando che nessuno premi il grilletto.

Categorized in:

Breaking AI,

Last Update: Aprile 22, 2026