DeepSeek ha rilasciato V4, la nuova generazione del suo modello di punta. Due versioni, entrambe open source, entrambe con finestra di contesto da un milione di token. La piu’ grande, V4-Pro, ha 1.600 miliardi di parametri, ma ne attiva solo 49 per ogni singola operazione. Il risultato e’ prestazione da modello frontier al costo computazionale di un modello da 37 miliardi.
Il prezzo di V4-Flash: 14 centesimi di dollaro per milione di token in input. Per dare un’idea, GPT-5.4 costa circa 25 dollari per lo stesso volume di output, e Claude Opus 4.7 arriva a 30. Non e’ una differenza marginale. E’ un ordine di grandezza.
I numeri che contano
DeepSeek V4-Pro e’ ora il modello open-weight piu’ grande al mondo, superando Moonshot AI Kimi K 2.6 (1.100 miliardi) e raddoppiando il predecessore V3.2 (671 miliardi). La versione Flash, piu’ compatta, parte da 284 miliardi con 13 miliardi attivati per token. Entrambe usano un’architettura Mixture-of-Experts.
Sui benchmark, DeepSeek dichiara prestazioni paragonabili a GPT-5.4 sulle attivita’ di coding e vicine a Claude Opus 4.6 e Gemini 3.1 sul ragionamento. Un sondaggio interno su 85 sviluppatori esperti ha visto oltre il 90% includere V4-Pro tra i primi modelli per compiti di programmazione. Il gap con i modelli frontier americani si e’ ridotto a 3-6 mesi, secondo gli stessi sviluppatori cinesi. Un’ammissione onesta che vale piu’ di qualsiasi dichiarazione trionfalistica.
Ci sono limiti. V4 e’ solo testo: niente audio, niente video, niente generazione di immagini. E sui test di conoscenza generale resta leggermente indietro rispetto a GPT-5.4 e Gemini 3.1 Pro.
L’innovazione nell’attenzione selettiva
Il vero colpo tecnico e’ come V4 gestisce la memoria. Invece di trattare tutto il testo precedente con la stessa importanza (il problema classico della quadraticita’ dell’attenzione), il modello comprime le informazioni piu’ vecchie e mantiene il focus su cio’ che conta nel momento attuale. Il risultato: gestire un milione di token (tutto Il Signore degli Anelli piu’ Lo Hobbit) richiede il 27% della potenza di calcolo e il 10% della memoria rispetto a V3.2 per lo stesso contesto.
Non e’ un trucco emergenziale. DeepSeek ha pubblicato una serie di paper nell’ultimo anno e mezzo sulla compressione della memoria nei modelli linguistici. L’attenzione selettiva e’ il prodotto maturo di quel lavoro.
Il nodo Huawei e la svolta geopolitica
Qui la storia diventa interessante per chi guarda i mercati. V4 e’ il primo modello DeepSeek ottimizzato per chip cinesi, specificamente gli Ascend di Huawei. Nessun early access a Nvidia o AMD. Solo produttori cinesi hanno potuto testare il modello in anticipo.
E’ un cambiamento di paradigma rispetto a V3 e R1, che giravano su infrastrutture Nvidia. Jensen Huang, CEO di Nvidia, ha definito la partnership DeepSeek-Huawei “orribile per gli Stati Uniti”. Huawei ha confermato che i nuovi supernodi Ascend 950 supporteranno V4.
I chip cinesi pero’ sono usati solo per l’inference, non per il training completo. Liu Zhiyuan dell’Universita’ di Tsinghua ha precisato che solo parte del processo di training di V4 e’ stato adattato per chip domestici. Le funzionalita’ di contesto lungo potrebbero ancora dipendere principalmente da hardware Nvidia. Ma la direzione e’ chiara.
Il Stanford AI Index 2026 descrive i laboratori cinesi come aventi “effettivamente colmato” il divario prestazionale con gli Stati Uniti. E V4 potrebbe far scendere ulteriormente i prezzi una volta che i supernodi Ascend 950 entreranno in produzione nel secondo semestre dell’anno.
La strategia dei prezzi come arma competitiva
Shwetank Kumar, chief scientist di EnCharge AI, lo ha spiegato con precisione in un commento ripreso da The National: “DeepSeek non ha bisogno di margini sui token. Ha bisogno che OpenAI e Anthropic non possano alzare i prezzi senza sembrare predatorii.”
Il modello R1 era costato 6 milioni di dollari e due mesi di training. Meta aveva speso 60 milioni per Llama. OpenAI aveva investito piu’ di 6 miliardi. Ora V4 si posiziona con prezzi che rendono insostenibile qualsiasi aumento tariffario da parte dei competitor americani. Non e’ una strategia di mercato, e’ una strategia di posizionamento sistemico.
Il tempismo dell’annuncio non e’ casuale. V4 e’ uscito il giorno dopo che gli Stati Uniti hanno accusato la Cina di aver rubato la proprieta’ intellettuale dei laboratori AI americani su scala industriale, usando migliaia di account proxy. DeepSeek stessa e’ stata accusata da Anthropic e OpenAI di aver “distillato” (copiato) i loro modelli. Il messaggio con V4 e’ chiaro: possiamo competere sul costo e sulla qualita’, e non dipendiamo piu’ dal vostro hardware.
Per Nvidia, il rischio e’ doppio. Non solo un cliente di peso riduce la dipendenza dai suoi chip, ma lo fa pubblicizzando il fatto. La capitalizzazione di mercato della societa’ ha perso 590 miliardi di dollari dopo il lancio di R1 nel gennaio 2025, per poi recuperare e salire del 76%. Ma come nota Perry Wu, CEO di Darrius.AI: Nvidia deve continuare a battere ogni aspettativa. “C’e’ poco spazio per le delusioni.”