Cosa è successo

DeepSeek ha rilasciato V4, la quarta generazione della sua famiglia di modelli open source. Due varianti — V4-Pro e V4-Flash — con una specifica che fa rumore: 1.600 miliardi di parametri totali (architettura Mixture of Experts), finestra di contesto da 1 milione di token, e tutto sotto licenza Apache 2.0. I pesi sono già disponibili su Hugging Face.

Il tempismo è curioso: V4 è uscito lo stesso giorno di GPT-5.5 di OpenAI. Difficile non leggerla come una dichiarazione di intenti.

I numeri contano

V4-Pro ha 49 miliardi di parametri attivi su 1.600 totali. V4-Flash ne ha 13 miliardi attivi su 284. Entrambi sono stati addestrati su oltre 30 trilioni di token. La finestra di contesto da 1 milione di token è il default, non un extra a pagamento. L’output massimo è 384.000 token — circa 300.000 parole, più del doppio del “Guerra e Pace”.

Sui benchmark di coding, V4-Pro supera sia GPT-5.4 che Claude Opus 4.6. LiveCodeBench: 93.5 contro 88.8 di Claude. Codeforces rating: 3206, meglio dei 3168 di GPT-5.4. Su SWE-Verified (risoluzione di bug reali) è a 80.6, praticamente in parità con Claude Opus 4.6 (80.8) e Gemini-3.1-Pro (80.6).

Dove resta indietro è la conoscenza generale: su MMLU-Pro segna 87.5, contro il 91 di Gemini-3.1-Pro e l’89.1 di Claude Opus 4.6. DeepSeek lo ammette senza giri di parole: V4-Pro ha meno “world knowledge” rispetto a Gemini. Su Humanity’s Last Exam — il benchmark che dovrebbe mettere in difficoltà tutti — segna 37.7, contro il 44.4 di Gemini-3.1-Pro.

Il prezzo è il vero argomento

Se le performance sono competitive, i prezzi sono devastanti per la concorrenza. V4-Pro costa $3.48 per milione di token in output. GPT-5.4 costa $15. Claude Opus 4.6 costa $25. V4-Flash costa $0.28 — cinquantatré volte meno di Claude.

Per le aziende che consumano milioni di token al giorno, la differenza si misura in centinaia di migliaia di dollari all’anno. E il fatto che i pesi siano scaricabili con licenza Apache 2.0 significa che chi vuole può eseguire il modello in-house, senza passare per l’API di DeepSeek.

V4-Flash: il modello che molti useranno davvero

La variante Flash è quella che interessa la maggior parte degli sviluppatori. Costa un decimo della versione Pro e resta competitiva sulla maggior parte dei task: MMLU-Pro a 86.2 (solo 1.3 punti sotto il Pro), LiveCodeBench a 91.6. Dove crolla è la recall fattuale (SimpleQA-Verified: 34.1 contro 57.9 del Pro) e i task agentici complessi (Terminal Bench 2.0: 56.9 contro 67.9). Se ti serve un motore per generare codice o riassumere documenti, Flash basta e avanza. Se devi costruire un agente che naviga il web e compila moduli complessi, il divario si sente.

Perché importa

DeepSeek non è un newcomer. A gennaio 2025 il suo modello R1 aveva fatto crollare il titolo NVIDIA del 17% in una giornata, dimostrando che si poteva ottenere performance paragonabili a o1 di OpenAI a un decimo del costo. Ora la storia si ripete su scala più ampia: V4-Pro è competitivo con i modelli più costosi del mercato e costa una frazione.

La dinamica è chiara. Ogni volta che un lab occidentale lancia un modello di punta con un prezzo premium, DeepSeek rilascia un’alternativa open source che fa la stessa cosa a metà prezzo o meno. Questo comprime i margini di tutti — OpenAI, Anthropic, Google — e accelera la commoditizzazione dei modelli di linguaggio. Il valore si sposta sempre più dall’accesso al modello a cosa ci costruisci sopra.

La strategia a due modelli (Pro per i carichi pesanti, Flash per tutto il resto) è lo stesso playbook di Anthropic con Opus/Sonnet/Haiku e Google con Pro/Flash. DeepSeek non cerca più solo attenzione: vuole rimanere. E l’integrazione diretta con Claude Code, OpenClaw e OpenCode dice che punta forte sugli agenti autonomi, non solo sul benchmark delle slide.

C’è un dettaglio che la copertura mediatica finora ha trascurato: Alibaba, con la sua famiglia Qwen, aveva recentemente superato DeepSeek su diversi benchmark. V4 è anche una risposta a quella pressione interna al mercato cinese. La competizione open source non è più “Cina contro Occidente” — è diventata un free-for-all dove ognuno cerca di mangiare il pranzo degli altri.

L’addio a NVIDIA: V4 corre sui chip Huawei

Il dettaglio che racconta più del modello stesso è l’infrastruttura. DeepSeek ha collaborato con Huawei per ottimizzare V4 sui chip Ascend 950PR, i processori AI di design e produzione interamente cinesi. Reuters ha confermato che V4 è il primo modello di classe frontier progettato fin dall’inizio per girare su semiconduttori domestici, non su NVIDIA. Huawei ha lavorato a stretto contatto con DeepSeek per garantire che V4-Pro e V4-Flash girassero su tutta la sua linea di sistemi ad alte prestazioni, inclusi i cluster Ascend Supernode.

È un cambio di rotta netto. Fino a R1, DeepSeek faceva affidamento sulle GPU NVIDIA come tutti gli altri. Ora sta dicendo al mercato: possiamo fare a meno di voi. In un contesto in cui le esportazioni americane di chip ad alte prestazioni verso la Cina sono soggette a restrizioni crescenti, la mossa ha un peso che va ben oltre la tecnologia. Come ha detto Marina Zhang, professoressa associata alla University of Technology Sydney, V4 è un “milestone decisivo per l’industria AI cinese, soprattutto mentre la competizione globale si intensifica verso l’autonomia tecnologica”.

Per le aziende cinesi e per i mercati emergenti dove DeepSeek sta guadagnando terreno (un report Microsoft di gennaio 2026 lo conferma), la possibilità di usare un modello frontier senza dipendere da infrastrutture americane è un argomento forte. Non per motivi ideologici, ma pratici: meno punti di failure, meno sanzioni da temere, costi più bassi.

L’ombra della distillazione

V4 non arriva senza controversie. A febbraio, Anthropic ha accusato DeepSeek e altri due lab cinesi di condurre “campagne su scala industriale” per estrarre illegalmente le capacità di Claude tramite distillazione — ovvero addestrando un modello meno potente sugli output di uno più forte. OpenAI ha mosso accuse simili davanti al Congresso americano. Michael Kratsios, chief science adviser della presidenza Trump, ha parlato di aziende straniere “principalmente basate in Cina” che sfruttano “l’expertise e l’innovazione americana”.

L’ambasciata cinese a Washington ha respinto le accuse, definendole “soppressione ingiustificata delle aziende cinesi da parte degli Stati Uniti”. La questione resta aperta e difficilmente risolvibile in modo netto: la distillazione è tecnicamente difficile da provare e legalmente ambigua, perché i modelli generano testo che poi finisce in dataset pubblici usati da chiunque.

Ivan Su, analista di Morningstar, ha dato una lettura pragmatica: V4 è un “follow-up competente, ma non il breakthrough che era stato R1”. Il mercato interno cinese si è fatto più affollato — Alibaba con Qwen, Moonshot con Kimi, e almeno una dozzina di altri player — e il vantaggio di DeepSeek come “l’unico modello cinese competitivo” si è ridotto. Quello che resta, però, è il posizionamento: DeepSeek è ancora il marchio che il mondo associa all’AI cinese aperta e accessibile, e V4 conferma che non ha intenzione di cedere quel ruolo.

Quello che conta, alla fine dei conti, è che il mercato dei modelli di linguaggio si sta dividendo in due blocchi. Da una parte i modelli chiusi e costosi (GPT-5.5, Claude Opus, Gemini Pro) che puntano su capacità generali e sicurezza. Dall’altra i modelli open source che inseguono le stesse performance a un costo drasticamente inferiore. V4 è il candidato più serio finora per guidare questo secondo blocco. Il fatto che lo faccia su hardware cinese, con una licenza libera e prezzi che costringono tutti a ricalcolare, rende il tutto più interessante di un semplice benchmark.

Categorized in:

Breaking AI,

Last Update: Aprile 24, 2026