Immaginate un mondo dove l’intelligenza artificiale è accessibile a tutti, un po’ come l’acqua corrente. OpenAI sembra intenzionata a rendere questa visione una realtà, lanciando Flex processing, una mossa strategica per competere con giganti come Google e altre aziende emergenti nel settore.

Flex processing è, in sostanza, un’opzione API che offre prezzi più accessibili per l’utilizzo dei modelli AI. Il trucco? Tempi di risposta leggermente più lenti e, occasionalmente, una possibile indisponibilità delle risorse. Pensatelo come un “affare” che richiede un po’ di pazienza.

Questa novità, attualmente in fase beta e disponibile per i modelli di ragionamento o3 e o4-mini, si rivolge a compiti meno urgenti, come valutazioni di modelli, arricchimento dati e flussi di lavoro asincroni. In pratica, attività che possono tollerare qualche ritardo senza compromettere la loro utilità.

Ma quanto costa esattamente questo “affare”? La riduzione dei costi è notevole: dimezza il prezzo delle API. Per o3, si parla di $5 per milione di input tokens (circa 750.000 parole) e $20 per milione di output tokens, rispetto ai $10 e $40 standard. Per o4-mini, i prezzi scendono rispettivamente a $0.55 e $2.20 per milione di input e output tokens.

Questa mossa arriva in un momento cruciale, con i costi dell’AI di ultima generazione in costante aumento e la concorrenza che sforna modelli sempre più economici ed efficienti. Basti pensare a Gemini 2.5 Flash di Google, un modello di ragionamento che sfida le prestazioni di DeepSeek a un costo inferiore.

Parallelamente al lancio di Flex processing, OpenAI ha comunicato che gli sviluppatori ai livelli inferiori della sua gerarchia di utilizzo (livelli 1-3) dovranno completare la recente procedura di verifica dell’identità per accedere a o3. Questi livelli sono determinati dalla spesa per i servizi OpenAI. Anche le funzionalità di riepilogo di ragionamento di O3 e il supporto per le API di streaming sono vincolati a questa verifica.

Secondo OpenAI, la verifica dell’identità serve a prevenire abusi e violazioni delle policy di utilizzo, un passo necessario per garantire un ecosistema AI più sicuro e responsabile.

Categorized in:

AI Updates,

Last Update: Aprile 19, 2025