Per qualche ora, martedì sera, il selettore modelli di Codex ha mostrato qualcosa che non doveva essere visto. Utenti Pro si sono trovati davanti una lista di nomi mai pubblicati: GPT-5.5, oai-2.1, arcanine, diversi checkpoint glacier-alpha. Qualcuno ha fatto screenshot. Qualcuno ha fatto in tempo a provarci. Poi OpenAI ha chiuso il rubinetto.

La fuga di dati, confermata da sviluppatori su X, è stata breve ma sufficiente a cambiare l’agenda della settimana. Il nome che ha acceso tutti è GPT-5.5, nome in codice “Spud”. Un modello il cui pre-training è stato completato il 24 marzo, attualmente in fase di valutazione sicurezza, e che secondo Polymarket ha il 78% di probabilità di uscire entro fine aprile. Oggi è giovedì. E OpenAI ha un’abitudine: i modelli dell’era GPT-5 li lancia di giovedì.

I primi test degli sviluppatori

Prima che il modello sparisse dal selettore, alcuni sviluppatori hanno avuto il tempo di usarlo. I risultati circolati su X parlano chiaro. Un utente ha raccontato che GPT-5.5 ha risolto in tre minuti un bug di coding su cui lavorava da quattro ore. Altri hanno segnalato una maggiore efficienza nel consumo di token e prestazioni nettamente migliori nel front-end development: pagine HTML con Tailwind CSS, landing page dinamiche, interfacce complesse. Il modello è stato descritto come “molto più veloce” e “più efficiente” rispetto alle versioni precedenti. Nel mondo dell’IA, dove ogni token ha un costo e i conti mensili pesano sulle aziende, questo conta eccome.

Secondo AIbase, GPT-5.5 è etichettato internamente come il “modello di programmazione agent più avanzato” di OpenAI. Non è solo un modello più grande: è un modello progettato per lavorare in autonomia, pianificare, eseguire task complessi senza supervisione continua. È il pezzo che manca alla strategia degli agenti autonomi che OpenAI sta costruendo da mesi, e che ha preso forma concreta proprio questa settimana con il lancio dei Workspace Agents per ChatGPT.

Altman, il lato chiaro e il saluto militare

Ma il colpo di scena più bello non è il leak. È la reazione di Sam Altman.

Lunedì Anthropic ha rimosso Claude Code dai piani Pro, scatenando la rabbia degli sviluppatori che pagavano 200 dollari al mese per usarlo. Altman ha colto l’occasione. A un utente frustrato su X ha risposto: “Vieni dal lato chiaro.” Quando un altro ha scritto che sarebbe passato a OpenAI se GPT-5.5 fosse uscito questa settimana, Altman ha risposto con un emoji: un saluto militare.

È lo schema classico di Altman. Non conferma, non smentisce, lascia che la community colleghi i puntini. I puntini, in questo caso, sono piuttosto evidenti: leak accidentale martedì, ChatGPT Images 2.0 rilasciato lo stesso giorno, Privacy Filter open source lanciato mercoledì, e il giovedì libero per il pezzo forte della settimana. Qualcuno, naturalmente, sospetta che il leak non sia stato affatto accidentale. In un settore dove l’attenzione è la moneta più preziosa, una “fuga” di informazioni ha lo stesso effetto di una campagna marketing da milioni di dollari.

La mappa segreta di OpenAI

Oltre a GPT-5.5, il leak ha svelato una lista interna più ampia del laboratorio. Il nome in codice “Spud” è associato a un modello transitorio tra GPT-5 e GPT-6, pensato per colmare il gap prestazionale con Claude Opus 4.7 di Anthropic e Gemini 3.1 di Google. Greg Brockman, co-fondatore di OpenAI, lo ha descritto come contenente “due anni di ricerca” al suo interno. Sam Altman ha parlato di un modello “molto forte, in grado di accelerare l’economia”.

Poi ci sono gli altri nomi. Heisenberg, modello specializzato in scienze della vita e ricerca biomedica. Arcanine, di cui si sa poco, scherzosamente descritto come dotato di “appetito leggendario per i carboidrati”. La serie glacier-alpha, checkpoint di calcolo ad alta intensità definiti con titoli come “saggezza che può scuotere i continenti”. E il modello oai-2.1, comparso nel selettore accanto a GPT-5.5: potrebbe essere un aggiornamento della famiglia di modelli di reasoning, quelli che ragionano passo-passo prima di rispondere. A questa lista si aggiunge la segnalazione, da AIbase, che il modello avrebbe superato per la prima volta il “Gödel Test” e tentato di risolvere tre congetture matematiche aperte, con dimostrazioni complesse e minimo intervento umano. Se confermato, è un salto di categoria rispetto a tutto ciò che esiste oggi sul mercato.

Una settimana che brucia

Questa è una delle settimane più dense dell’anno per il settore. Google ha annunciato la Gemini Enterprise Agent Platform, unificando Vertex AI con strumenti per costruire e scalare agenti aziendali. Alibaba ha rilasciato Qwen3.6-27B, un modello da 27 miliardi di parametri che batte il modello da 397 miliardi nei benchmark di coding. Anthropic ha ricevuto 5 miliardi di dollari da Amazon, con l’obbligo di spenderne 100 su AWS nel prossimo decennio. E Sundar Pichai ha dichiarato che oltre il 75% del nuovo codice di Google è ora generato da IA. Non assistito. Generato.

La release di GPT-5.5 in questo contesto non è solo un aggiornamento tecnico. È una mossa competitiva in un mercato dove Anthropic ha appena perso consenso tra gli sviluppatori, Google sta spingendo sull’enterprise, e ogni settimana conta. Se usi ChatGPT per lavorare, il modello promette risposte più veloci e task più complessi gestiti in autonomia. Se sei un’azienda con migliaia di dollari al mese in chiamate API, l’efficienza dei token si traduce direttamente in risparmio. Se sei uno sviluppatore, il salto nel coding è tangibile: tre minuti invece di quattro ore per un bug ostico non è un miglioramento incrementale.

La definizione interna di GPT-5.5 come “modello di programmazione agent” è forse il segnale più importante. OpenAI sta accelerando il passaggio dai chatbot agli agenti autonomi: non più conversazioni, ma task completi. Non più prompt, ma obiettivi. È la direzione verso cui va tutto il settore. Google con Gemini Enterprise, Anthropic con l’agente “Conway” sempre attivo, Salesforce con Agentforce, Adobe con i suoi agenti autonomi per il marketing. La domanda è se questa corsa sia economicamente sostenibile, o se il costo dei token e la complessità dei sistemi multi-agente finiranno per frenare tutti.

Per ora, Altman ha salutato. E quando Altman saluta, qualcosa sta per arrivare.

Categorized in:

Breaking AI,

Last Update: Aprile 23, 2026