Google ha appena annunciato un investimento fino a 40 miliardi di dollari in Anthropic. È il secondo largest deal nella storia dell’IA, superato solo dalla partnership Microsoft-OpenAI. E cambia le regole del gioco per tutti.
L’accordo, reso pubblico venerdì 24 aprile, prevede un’esborso immediato di 10 miliardi a una valutazione di 350 miliardi di dollari. Gli altri 30 miliardi arriveranno a condizione che Anthropic raggiunga specifici target prestazionali. In cambio, Google si assicura 5 gigawatt di capacità di calcolo dedicata sulla propria infrastruttura TPU per i prossimi cinque anni.
Il timing non è casuale. Tre giorni prima, Amazon aveva comunicato un ampliamento del proprio investimento in Anthropic fino a 25 miliardi. Tra i due colossi, Anthropic si ritrova con 65 miliardi di dollari in impegni di capitale e 10 gigawatt di potenza di calcolo prenotata. Per avere un’idea: 5 gigawatt equivalgono al consumo elettrico di punta di un’area metropolitana come San Francisco.
I numeri che contano
Anthropic sta crescendo a un ritmo che non ha precedenti neanche in un settore abituato alle iperboli. A gennaio 2025 il revenue annualizzato era di 1 miliardo di dollari. A febbraio 2026 era salito a 14 miliardi. A marzo, 19 miliardi. Oggi, aprile 2026, il run-rate ha toccato i 30 miliardi. In quindici mesi, l’azienda ha moltiplicato i ricavi per trenta.
La clientela enterprise è esplosa. Più di mille aziende spendono almeno un milione di dollari all’anno con Anthropic, un numero che è raddoppiato in meno di due mesi. Il contratto medio si aggira sui 200 dollari per utente al mese, contro i 20-30 dei competitor. Claude non compete sul prezzo: compete sulla qualità del lavoro che riesce a fare.
La gamma di modelli si è allargata. Opus 4.7 è il modello di punta per i task complessi. Sonnet 4.6 bilancia prestazioni e costi. Haiku 4.5 copre il segmento a bassa latenza. Poi c’è Mythos, il modello preview dedicato alla cybersecurity, così potente che Anthropic ne ha ristretto l’accesso a un consorzio di circa quaranta aziende tecnologiche tra cui Apple e Amazon. Costa 25 dollari per milione di token in input e 125 in output, cifre che fanno sembrare economico tutto il resto.
Perché Google finanzia un concorrente
La domanda che chiunque si pone è: perché un’azienda con il suo modello Gemini shouldererebbe 40 miliardi per rafforzare un rivale diretto? La risposta sta nella struttura del deal e in quello che Google compra davvero con quei soldi.
L’investimento non è solo equity. È un accordo ibrido dove il capitale investito torna in gran parte a Google sotto forma di spesa per il calcolo su TPU. Anthropic riceve i soldi e li usa per comprare capacità di training e inference sui chip di Google. È un circuito chiuso che alimenta due volani contemporaneamente: il valuation di Anthropic sale, e Google Cloud registra revenue crescenti.
Ma il motivo strategico più profondo è un altro. Google ha bisogno che i suoi TPU siano considerati un’alternativa credibile alle GPU Nvidia. Avere come principal customer il laboratorio di AI più avanzato del momento, che sceglie i tuoi chip per addestrare i propri modelli, è la migliore validazione possibile. Come ha spiegato un ex dirigente senior di Google Cloud citato da Tech Insider: “Sundar paga per assicurarsi che il frontier lab più credibile non-OpenAI non finisca nell’orbita di Microsoft o Oracle. Quaranta miliardi sono tanti. Ma sono meno di quanto costerebbe perdere questo ancoraggio”.
C’è poi la questione dell’IPO. Anthropic valuta una quotazione già da ottobre 2026, con un range di listino tra i 400 e i 600 miliardi. Entrare adesso significa ottenere diritti informativi, osservatori nel board e condizioni preferenziali prima che l’azienda apra al mercato pubblico. Una volta quotata, riprodurre questo livello di accesso diventerebbe impossibile.
Anthropic ha superato OpenAI?
I numeri dicono di sì, almeno sul revenue. Anthropic viaggia a 30 miliardi di run-rate contro i 24-25 di OpenAI. Ha più clienti enterprise da oltre un milione di dollari. I suoi costi di training sono stimati a un quarto di quelli di OpenAI, grazie all’architettura multi-cloud su TPU e Trainium anziché la dipendenza single-vendor dalle GPU Nvidia su Azure.
Ma la corsa non si vince sui quartieri nobili. OpenAI ha un target di 30 gigawatt di calcolo dedicato entro il 2030, il triplo della capacità combinata di Anthropic. Ha una brand recognition che Claude non si sogna. E il rapporto con Microsoft, pur meno ricco di capitali in termini di equity diretta, le garantisce una distribuzione capillare attraverso Copilot.
La verità è che il mercato dell’IA generativa si sta consolidando in un duopolio con due modelli di business opposti. OpenAI punta sull’ubiquità: modello forte, prezzo accessibile, massimo numero di utenti. Anthropic punta sulla profondità: modello migliore, prezzo premium, pochi clienti che spendono tanto. Due strategie che possono coesistere, ma che rendono la vita difficile a chi cerca di posizionarsi nel mezzo. È difficile non pensare a cosa succederà ai player di seconda fila come Cohere, Mistral o AI21 quando la maggior parte dei budget enterprise sarà già spartita tra due fornitori.
Il problema della domanda che supera l’offerta
Tutta questa potenza di calcolo ha un senso solo se la domanda segue. E qui Anthropic ha un paradosso concreto. L’uso di Claude è cresciuto così in fretta che l’infrastruttura non regge. Nei giorni di picco, l’azienda è costretta a imporre limiti di utilizzo. Sta valutando di rimuovere gli strumenti più intensivi dal piano più economico per alleviare la pressione sui server.
I 5 gigawatt Google e i 5 gigawatt Amazon risolveranno il problema, ma non prima del 2027-2028. Nel frattempo, la frustrazione degli utenti per i limiti di utilizzo rischia di allontanare una fetta di clientela. È il tipo di problema che ogni startup vorrebbe avere, ma in un mercato dove la concorrenza è a un click di distanza, anche poche settimane di servizio degradato possono lasciare il segno.
La guerra dell’infrastruttura
Il deal Google-Anthropic non è un evento isolato. Va letto insieme a tutti gli altri movimenti del settore. OpenAI ha in programma un’estensione del proprio accordo con Microsoft e Oracle per altri 25-50 miliardi in infrastruttura. Meta continua a spendere decine di miliardi nei propri data center. La domanda totale di data center negli Stati Uniti è passata da meno di 30 gigawatt nel 2023 a una proiezione di 80 gigawatt per il 2030.
Stiamo parlando di infrastrutture che consumano più elettricità di intere nazioni. E il mercato si sta consolidando in pochissime mani: Google, Amazon, Microsoft controllano la maggior parte della capacità di calcolo per l’IA. Per chi non è tra questi tre, restano le briciole o il noleggio da terze parti come CoreWeave a prezzi meno convenienti.
Questo solleva una questione che va oltre i bilanci delle singole aziende. Se tre corporation americane controllano l’accesso alla potenza di calcolo necessaria per sviluppare modelli di IA avanzati, ogni altra azienda, università o nazione che vuole competere si trova in una posizione di dipendenza strutturale. La concentrazione di capitale e infrastruttura che stiamo vedendo non ha precedenti nella storia tecnologica recente. Neanche durante la corsa ai semiconduttori degli anni Ottanta o il boom delle telecomunicazioni dei anni Novanta il capitale si era concentrato così in fretta in così poche mani.
Chi investe in Anthropic oggi scommette su due cose. Primo, che il revenue da 30 miliardi continuerà a crescere al ritmo attuale, giustificando una valutazione da 400-600 miliardi in occasione dell’IPO. Secondo, che i modelli di Anthropic manterranno un vantaggio competitivo sufficiente a giustificare un prezzo medio dieci volte superiore a quello dei rivali. Se una di queste due condizioni salta, i 40 miliardi di Google diventano un azzardo molto costoso.
Per ora, la scommessa sembra solida. Ma basta un’uscita di un modello concorrente più forte del previsto per cambiare le carte in tavola. E in un mercato dove i cicli di innovazione durano mesi, non anni, la finestra di vantaggio può chiudersi in fretta.