Sam Altman ha pubblicato domenica sera un documento di cinque principi guida per lo sviluppo dell’AGI. Titolo: “Our Principles”. Data: 26 aprile 2026. È il primo aggiornamento sostanziale dalla carta fondativa del 2018, e le differenze tra i due documenti dicono molto più del testo stesso.

I cinque pilastri si chiamano democratizzazione, empowerment, prosperità universale, resilienza e adattabilità. Il linguaggio è misurato, la struttura elegante. Chi legge trova un’azienda che dichiara di voler “resistere alla potenziale concentrazione del potere nelle mani di pochi” e che immagina “un mondo in cui il potenziale individuale, l’agency e la realizzazione personale aumentino in modo significativo”. Parole belle. Parole che suonano familiari a chiunque abbia seguito OpenAI negli ultimi anni.

Il problema è che tra quelle parole e la pratica c’è un divario che si è allargato, non ridotto, dal 2018. E la lettura incrociata del documento con la storia recente dell’azienda rivela un quadro molto più sfumato di quanto Altman voglia far credere.

Cosa cambia rispetto al 2018

La carta del 2018 menzionava “AGI” dodici volte. Il documento del 2026 lo fa due volte. Non è un dettaglio formale. È un cambio di prospettiva radicale: OpenAI non parla più di un orizzonte lontano da raggiungere con cautela, ma di un percorso incrementale in cui ogni livello di capacità va dispiegato e testato nella società reale. Altman lo chiama “deployment iterativo”, e lo descrive come una delle scoperte più importanti dell’azienda. La premessa è ragionevole: la società ha bisogno di tempo per abituarsi a ogni livello di intelligenza artificiale prima di passare al successivo.

Ma il cambiamento più significativo riguarda la competizione. Nella carta del 2018, OpenAI scriveva nero su bianco: se un progetto “allineato ai valori e attento alla sicurezza” si fosse avvicinato all’AGI prima di loro, si sarebbero fermati per assistere quel progetto invece di continuare a competere. Era una promessa esplicita di collaborazione sopra la competizione. Nel documento del 2026, quella promessa è scomparsa. Non riformulata. Non ammorbidita. Scomparsa.

Business Insider ha notato che la nuova versione salta completamente ogni riferimento alla condivisione dei progressi o alla possibilità di farsi da parte. Il documento del 2026 descrive implicitamente un’azienda che potrebbe anteporre la competitività all’accesso universale all’IA. Una virata di 180 gradi.

Anthropic e il contesto competitivo

La scomparsa di quel passaggio non è casuale. Anthropic, fondata nel 2021 da ex ricercatori OpenAI tra cui Dario Amodei, ha raggiunto una valutazione di circa mille miliardi di dollari sui mercati secondari, superando OpenAI stessa, ferma nella metà degli 800 miliardi. Il modello Claude Mythos, rilasciato dietro un firewall riservato a 50 aziende selezionate, ha dimostrato capacità che preoccupano concorrenti e regolatori. Lo scontro con il Pentagono a febbraio ha rafforzato il brand di Anthropic come alternativa “sicura” a OpenAI, con un’impennata nei download e nell’interesse degli investitori.

In questo contesto, la promessa del 2018 di “fermarsi e assistere” suonerebbe come una resa. E Altman, che del New Yorker ha descritto come animato da una “relentless will to power” in un’inchiesta pubblicata proprio questo mese, non sembra il tipo da arrendersi.

Principi e pratica: il gap delle azioni

Il principio di democratizzazione dichiara che le decisioni sull’IA dovrebbero essere prese “tramite processi democratici e principi egalitari” e non “esclusivamente dai laboratori di IA”. Parole che contrastano con almeno tre episodi recenti.

Primo: dopo la crisi del board del novembre 2023, Altman è tornato con un consiglio di amministrazione riformato e allineato, rendendo un secondo tentativo di rimozione praticamente impossibile. Secondo: quando gruppi della società civile hanno criticato la ristrutturazione di OpenAI da no-profit a for-profit, l’azienda ha inviato diffide legali ad almeno sette organizzazioni, inclusa la San Francisco Foundation. Diffidare legalmente chi critica è un modo singolare di promuovere il processo democratico.

Terzo: Altman aveva promesso di destinare il 20% del calcolo di OpenAI a un team di superalignment dedicato alla sicurezza. Secondo Fortune, il team ha ricevuto solo una frazione delle risorse promesse, con hardware obsoleto, mentre le risorse migliori andavano ai prodotti commerciali. Il responsabile di quel team, Jan Leike, se n’è andato. Il co-fondatore Ilya Sutskever, anche lui nel team, se n’è andato. La velocità di mercato ha mangiato la sicurezza.

Il Pentagono e la resilienza selettiva

Il principio di “resilienza” parla di collaborazione con governi e agenzie internazionali per gestire i rischi. Parla di “pause potenziali nello sviluppo” quando i problemi di allineamento e sicurezza sono troppo gravi. Parla di costruire sistemi sicuri e di usare le risorse della OpenAI Foundation.

Ma l’accordo con il Pentagono siglato a febbraio 2026 racconta una storia diversa. I principi di sicurezza di OpenAI vietano esplicitamente la sorveglianza di massa domestica e lo sviluppo di armi completamente autonome. L’accordo con il Dipartimento della Difesa, però, non rende questi vincoli legalmente vincolanti. Come ha scritto Digit.in: “A che servono i principi di sicurezza sullo sviluppo futuro dell’AGI, se non reggono la prova del presente?”

È la domanda centrale di tutto il documento. I principi scritti in tempo di pace valgono se al primo contratto militare importante diventano raccomandazioni invece di obblighi?

La “prosperità universale” e i costi reali

Il terzo principio, la prosperità universale, è forse il più interessante perché contiene un’ammissione rara. Altman scrive che “molte delle cose che facciamo che sembrano strane — comprare enormi quantità di calcolo mentre i nostri ricavi sono relativamente piccoli, integrarci verticalmente per abbassare i costi, spingere per costruire data center in tutto il mondo — sono guidate dalla nostra convinzione fondamentale in un futuro di prosperità universale.”

È una giustificazione ambiziosa per decisioni da centinaia di miliardi di dollari. E potrebbe anche essere sincera. Ma la prosperità universale richiede che i costi dell’IA scendano drasticamente, e finora la tendenza è stata l’opposto: modelli più grandi, training più costosi, inferenza più pesante. Altman suggerisce che i governi potrebbero dover considerare “nuovi modelli economici” per garantire che tutti partecipino alla creazione di valore. È un modo elegante di dire che la redistribuzione della ricchezza generata dall’IA non spetterà a OpenAI, ma allo stato. L’azienda costruisce la tecnologia; qualcun altro si preoccupa degli squilibri sociali.

Adattabilità: il principio che scusa tutto

Il quinto principio, l’adattabilità, è il più ambiguo. Altman ammette che OpenAI è “una forza molto più grande nel mondo di quanto fosse pochi anni fa” e si impegna alla trasparenza su quando e perché i principi cambiano. Ma poi aggiunge: “Possiamo immaginare periodi in cui dovremo scambiare un po’ di empowerment per più resilienza.”

Traduzione: i principi possono cambiare. E se cambiano, OpenAI sarà trasparente sul fatto che sono cambiati, ma non necessariamente si fermerà. È un principio che contiene la propria clausola di revoca. Che rende gli altri quattro principi più un orientamento che un impegno.

Il processo in corso tra Elon Musk e Altman — definito il “più grande processo di Silicon Valley” — pone domande ulteriori su chi controlla davvero OpenAI e a chi risponde. Un’azienda che dichiara che il suo “dovere fiduciario primario è verso l’umanità” ma che contemporaneamente negozia accordi militari, diffonde ex fondatori e accumula potere decisionale interno è un’azienda che chiede molta fiducia sulla base di promesse che ha già infranto almeno in parte.

I principi di per sé non sono sbagliati. Democratizzazione, empowerment, prosperità, resilienza e adattabilità sono parole giuste per un’azienda che costruisce la tecnologia più potente della generazione. Ma le parole senza le azioni che le corroborano sono un documento di PR, non una carta fondativa. E la differenza tra i due è esattamente ciò che il dibattito pubblico sull’IA dovrebbe scrutinare con più attenzione.

Altman ha scritto che OpenAI “merita un’enorme quantità di scrutiny per il peso di ciò che stiamo facendo”. Su questo, almeno, ha ragione.

Categorized in:

Breaking AI,

Last Update: Aprile 27, 2026