Google ha firmato un accordo classificato con il Dipartimento della Difesa americano per l’accesso ai suoi modelli AI più avanzati, inclusa la famiglia Gemini. Il contratto, annunciato martedì 28 aprile, permette al Pentagono di usare l’intelligenza artificiale di Google per “qualsiasi scopo governativo legittimo”. Lo stesso giorno, più di 600 dipendenti, molti dei quali ricercatori DeepMind, hanno firmato una lettera aperta a CEO Sundar Pichai chiedendo di bloccare l’accordo.
Non è la prima volta che Google si trova a questo bivio. Ma questa volta ha scelto una direzione diversa.
Cosa contiene l’accordo
Il contratto fornisce al Pentagono accesso API all’infrastruttura Google, seguendo quelli che un portavoce di Google Public Sector ha definito “termini standard del settore”. In pratica, il Dipartimento della Difesa ottiene la possibilità di utilizzare i modelli Gemini per compiti classificati, con una clausola che copre qualsiasi impiego considerato legale dal governo federale.
Il testo include un linguaggio che dovrebbe impedire l’uso dell’AI per la sorveglianza di massa domestica e per armi autonome senza supervisione umana. Ma la stessa frase prosegue specificando che l’accordo “non conferisce alcun diritto di controllo o veto sulle decisioni operative legittime del Governo”. Tradotto: Google chiede gentilmente di non fare certe cose, ma non ha nessun potere legale per fermarle.
Charlie Bullock, dell’Institute for Law and AI, ha analizzato la formulazione per The Decoder: l’espressione “non è destinato a, e non dovrebbe essere usato per” non ha peso legale. Segnala un uso sgradito, ma non costituirebbe una violazione contrattuale. Amos Toh del Brennan Center di NYU ha aggiunto un dettaglio che cambia i termini della questione: “supervisione umana appropriata” non significa necessariamente che ci sia un essere umano tra l’identificazione di un bersaglio e l’ordine di fare fuoco. Il Pentagono non ha escluso sistemi d’arma completamente autonomi.
La lettera dei 600
La protesta interna è partita prima ancora che l’accordo fosse firmato.
Circa 600 dipendenti, tra cui dirigenti di alto livello del laboratorio DeepMind, hanno inviato una lettera a Pichai con un messaggio diretto: “Vogliamo che l’AI benefici l’umanità; non che venga usata in modi disumani o estremamente dannosi”. La lettera contiene passaggi che rivelano una consapevolezza tecnica profonda. “Come persone che lavorano sull’AI, sappiamo che questi sistemi possono concentrare il potere e che commettono errori”, scrivono i firmatari. “Sentiamo che la nostra vicinanza a questa tecnologia crea una responsabilità: evidenziarne e prevenirne gli usi più pericolosi.” E ancora: “Vite umane stanno già andando perse e le libertà civili sono a rischio, in patria e all’estero, per cattivi utilizzi della tecnologia che stiamo contribuendo a costruire.”
Il punto centrale della loro argomentazione è pratico, non morale. I contratti classificati impediscono ai rappresentanti Google di sapere come viene effettivamente usata la tecnologia. L’unico modo per garantire che Google non diventi complice di abusi, scrivono, è “rifiutare qualsiasi workload classificato”.
Il confronto con la concorrenza
Google non è la prima big tech a firmare con il Pentagono, ma le condizioni variano drasticamente da azienda ad azienda. OpenAI, nel suo accordo di febbraio, ha mantenuto il pieno controllo del proprio “Safety Stack”, l’insieme di filtri e garanzie tecniche che limitano cosa può fare il modello. Google invece si è impegnata ad “aggiustare i filtri di sicurezza su richiesta del governo”. La differenza non è sottile: nel primo caso l’azienda conserva un interruttore, nel secondo lo cede.
Poi c’è Anthropic. La startup di Claude ha preteso garanzie contrattuali contro la sorveglianza di massa e le armi autonome. Il Pentagono ha risposto classificandola come “rischio per la supply chain” e tagliandola fuori dall’accordo. Anthropic ha fatto causa al governo federale per quella decisione. È l’unica azienda del settore che ha preferito il tribunale alla collaborazione militare.
xAI di Elon Musk detiene un contratto classificato separato, i cui termini non sono noti.
Il fantasma di Project Maven
Per chi segue Google da tempo, la situazione ha un’eco familiare. Nel 2018, migliaia di dipendenti si erano sollevati contro Project Maven, un contratto con il Pentagono per l’analisi automatica di immagini riprese da droni. La protesta fu così vasta che Google ritirò il contratto e pubblicò una serie di principi AI in cui si impegnava a non sviluppare intelligenza artificiale per armi o sorveglianza. Quei principi sono stati silenziosamente rimossi nel 2025. E Project Maven, ora gestito da Palantir dopo essere stato ceduto da Google, è stato usato per la selezione dei bersagli nel conflitto iraniano, con il supporto del modello Claude di Anthropic.
Il cerchio si è chiuso. Google si era ritirata dal militarismo AI per pressione interna; ora ci torna per pressione competitiva, mentre i sistemi che aveva contribuito a costruire continuano a operare sotto altre mani.
Il problema della supervisione
La questione più delicata non è tanto cosa vuole fare il Pentagono con l’AI di Google. È cosa può fare senza che nessuno lo sappia.
I contratti classificati operano in uno spazio dove la trasparenza è strutturalmente impossibile. Quando Google ha firmato l’accordo, ha anche firmato l’impossibilità di verificare come viene impiegata la sua tecnologia. Questo crea un paradosso che i dipendenti hanno colto con precisione: come può un’azienda dichiarare di seguire principi etici quando, per contratto, non è autorizzata a sapere se quei principi vengono rispettati? La formula “uso legittimo” è un buffer legale ampio. In contesto militare, la definizione di legittimità dipende dalle direttive operative in vigore, che cambiano senza che Google ne venga informata.
Un portavoce Google ha dichiarato che fornire accesso API “secondo termini standard” permette all’azienda di “supportare il governo rimanendo impegnata nei principi etici dell’AI”. Una frase che non regge un esame attento: se i termini standard non includono meccanismi di oversight reale, l’impegno etico rimane sulla carta.
Quello che cambia
L’accordo Google-Pentagono è un pezzo di un puzzle più grande. Ogni major del settore AI americano ha ormai un canale militare: OpenAI con il suo Safety Stack controllato, Google con l’accesso API, xAI con il suo contratto opaco. L’unica eccezione è Anthropic, che ha scelto la via legale e sta pagandone il prezzo in termini di accesso al mercato governativo.
La normalizzazione dei rapporti tra big tech AI e apparato militare americano procede a una velocità che nessuno avrebbe previsto due anni fa. I principi etici pubblicati con tanta solennità si sono rivelati flessibili quanto serviva. E la leva che nel 2018 aveva costretto Google a fare marcia indietro, la protesta dei dipendenti, questa volta non è bastata.
I 600 firmatari della lettera sanno che il loro atto ha un valore soprattutto simbolico. Ma il simbolo conta: in un’industria dove tutti stanno firmando, qualcuno che si rifiuta ricorda che c’era un’alternativa. E che qualcun altro, Anthropic, sta combattendo la stessa battaglia in un’aula di tribunale.