Sei settimane. È il tempo che OpenAI ha messo per passare da GPT-5.4 a GPT-5.5, il modello presentato giovedì 23 aprile e già disponibile per tutti gli abbonati ChatGPT a pagamento. Non è un minor release: OpenAI lo definisce il modello “più intelligente e intuitivo” mai prodotto. Ma se leggi tra le righe del comunicato ufficiale e delle dichiarazioni di Greg Brockman, quello che emerge è una strategia più ambiziosa, la corsa a diventare la piattaforma dove le aziende fanno tutto il lavoro intellettuale.

I numeri parlano chiaro. ChatGPT ha superato i 900 milioni di utenti settimanali attivi, con 50 milioni di abbonati paganti e 9 milioni di utenti business. Codex, l’ambiente di sviluppo integrato con l’AI, ha raggiunto 4 milioni di utenti. Questi non sono dati da startup: sono cifre che collocano OpenAI in una posizione di forza tale da giustificare un’accelerazione del ciclo di rilascio che ricorda più il ritmo di aggiornamenti di un prodotto SaaS che quello di un laboratorio di ricerca.

Cosa cambia davvero rispetto a GPT-5.4

I benchmark di coding sono il biglietto da visita di GPT-5.5. Su Terminal-Bench 2.0, il test che misura la capacità di un modello di completare task da riga di comando, GPT-5.5 segna l’82,7% contro il 75,1% del predecessore. Su Expert-SWE, il benchmark interno per problemi software complessi, passa dal 68,5% al 73,1%. Il salto c’è, ed è netto nei compiti a catena lunga: quando il modello deve pianificare, scrivere codice, testarlo, correggere errori e ripetere il ciclo per ore.

Ma il dato che convince di più è l’efficienza. GPT-5.5 usa meno token per completare gli stessi compiti di GPT-5.4. Traduzione: costa meno per ogni operazione. Sul Artificial Analysis Coding Index, OpenAI dichiara prestazioni al top della categoria a metà del costo dei modelli concorrenti. In un mercato dove il prezzo per token è diventato un discrimine concreto per le aziende, questo conta più di qualche punto percentuale su una classifica.

Ethan Mollick, professore alla Wharton School, lo ha testato chiedendo a GPT-5.5 Pro di costruire una simulazione 3D procedurale di una città portuale che evolvesse nel corso di migliaia di anni. Solo GPT-5.5 Pro ha prodotto un risultato che simulava davvero il cambiamento nel tempo. È un esempio singolo, ma illustra il punto: il guadagno è visibile nei compiti lunghi e aperti, non nei test a risposta singola.

Non è tutto perfetto. Come fa notare Simon Willison, sviluppatore open source tra i primi a testare il modello, i risultati migliori richiedono reasoning effort alto, che significa più tempo e più compute. Il che solleva una domanda: se il massimo delle prestazioni costa 2,5 volte tanto, quante volte ne vale la pena?

Prezzi: il rovescio della medaglia

L’API di GPT-5.5 costa $5 per milione di token in input e $30 per milione in output. GPT-5.4 costava $2,50 e $15. Raddoppio netto. GPT-5.5 Pro sale a $30/$180, cifre che lo rendono un tool per team con budget strutturati, non per sviluppatori indipendenti.

La concorrenza preme sui prezzi. Gemini 3.1 Pro di Google offre $2/$12 per token fino a 200K di contesto. Llama 4 Maverick di Meta scende sotto il dollaro per milione di token. OpenAI sta scommettendo che la qualità del prodotto integrale, ChatGPT più Codex più l’ecosistema di agent giustifichi il premium. Per ora il mercato le dà ragione, ma il margine si assottiglia.

Il problema sicurezza: capacità Mythos, accessibilità pubblica

È qui che la storia si fa interessante. XBOW, azienda di sicurezza informatica, ha testato GPT-5.5 sulla rilevazione di vulnerabilità e ha pubblicato risultati che fanno discutere. Il tasso di vulnerabilità mancate da GPT-5.5 è del 10%, contro il 18% di Claude Opus 4.6 e il 40% di GPT-5. Albert Ziegler di XBOW ha definito il modello “Mythos-like hacking, open to all”, un riferimento diretto a Mythos, il modello di cybersicurezza di Anthropic con accesso ristretto a pochi selezionati.

La provocazione è chiara: mentre Anthropic mantiene Mythos dietro un muro di accesso controllato, OpenAI rilascia un modello con capacità offensive comparabili a chiunque paghi un abbonamento. OpenAI ha aggiunto guardrail specifici per la cybersecurity e classificato il modello come rischio “High” in questa categoria, ma la distinzione tra uso difensivo (trovare bug nel proprio codice) e offensivo (trovare bug nel codice altrui) è tecnologicamente labile.

L’API è stata trattenuta per un giorno in più rispetto al rilascio consumer, proprio per completare i controlli di sicurezza. OpenAI ha anche lanciato un bio bug bounty con ricompense fino a $25.000 per chi segnala usi pericolosi del modello. Resta il fatto che un modello con queste capacità è ora accessibile a decine di milioni di persone.

La vera sfida: l’enterprise

Bank of New York, una delle più grandi banche d’investimento al mondo, ha testato GPT-5.5 in anticipo con risultati che meritano attenzione. La CIO Leigh-Ann Russell ha descritto un “step change” nella resistenza alle allucinazioni, il punto debole più critico per un’istituzione regolata. La banca ha 220 casi d’uso AI in pipeline e sta usando GPT-5.5 per ridisegnare interi servizi finanziari.

Nvidia ha dato accesso anticipato a oltre 10.000 dipendenti. OpenAI ha lanciato workspace agent per il passaggio di consegne tra team, un filtro privacy per i dati sensibili che gira localmente sul laptop, e sta spingendo la visione di ChatGPT, Codex e browser AI come un’unica interfaccia per il lavoro d’ufficio. Greg Brockman lo chiama “agent computing at scale”.

Il messaggio è diretto ad Anthropic, Google e chiunque altro punti al mercato enterprise: la differenza non la fanno i benchmark, ma la piattaforma. Chi offre l’infrastruttura completa, dal modello al prodotto all’integrazione, vince il contratto.

GPT-5.5 non è un salto generazionale. È un rilascio solido che migliora dove serviva di più (coding, efficienza token, computer use) e consolida una posizione di mercato. La vera domanda non è se sia meglio di Claude Opus 4.7 o Gemini 3.1 Pro, ogni modello ha i suoi punti di forza, ma se il vantaggio di piattaforma di OpenAI sia sufficiente a compensare un ciclo di concorrenza che si accorcia ogni settimana. Jakub Pachocki, chief scientist di OpenAI, ha detto che gli ultimi due anni sono stati “sorprendentemente lenti” e che ora vede miglioramenti significativi sia nel breve sia nel medio termine. Se ha ragione, GPT-5.5 è solo l’inizio di una fase molto più veloce.

Categorized in:

Breaking AI,

Last Update: Aprile 25, 2026