Cinque miliardi entrano, cento miliardi escono. È il rapporto alla base dell’ultimo accordo tra Amazon e Anthropic, annunciato lunedì 20 aprile: Amazon investe altri 5 miliardi di dollari nella startup di Dario Amodei, e Anthropic si impegna a spendere oltre 100 miliardi di dollari su AWS nei prossimi dieci anni.

La proporzione è 1 a 20. E dice tutto su cosa sta davvero comprando Amazon.

Non è un investimento nel senso tradizionale del termine. È un contratto di fornitura mascherato da round di finanziamento. Amazon anticipa liquidità, Anthropic garantisce fatturato futuro. Una transazione circolare che sta diventando lo standard dell’infrastruttura AI: due mesi fa, Amazon ha fatto qualcosa di molto simile con OpenAI, contribuendo con 50 miliardi al mega-round da 110 miliardi che ha valutato la società di Sam Altman 730 miliardi di dollari. Lo schema si ripete, e ogni volta le cifre crescono.

I numeri del patto

Con questo nuovo investimento, Amazon ha versato complessivamente 13 miliardi di dollari in Anthropic. Ma la cifra che conta è un’altra: 5 gigawatt di nuova capacità di calcolo. È l’equivalente energetico di cinque centrali nucleari di media taglia, interamente dedicati a addestrare e far girare Claude. L’accordo copre i chip Trainium2, Trainium3 e persino Trainium4, che non esiste ancora sul mercato, con opzione sui chip di generazioni future.

La capacità non è teorica. Anthropic usa già oltre un milione di chip Trainium2 grazie a Project Rainier, uno dei cluster di calcolo più grandi al mondo. Entro fine anno entreranno in funzione quasi un gigawatt di capacità Trainium2 e Trainium3, con espansione della inference in Asia ed Europa per servire la base clienti internazionale in crescita.

Perché Anthropic ha accettato

I numeri della crescita spiegano la urgenza.

Anthropic comunica un run-rate revenue di 30 miliardi di dollari, in salita dai 9 miliardi di fine 2025. Una crescita tripla in pochi mesi mette sotto pressione qualunque infrastruttura. Nei giorni scorsi gli utenti dei piani Free, Pro e Max hanno sperimentato rallentamenti e disservizi durante le ore di picco. Il weekend appena passato, un blackout simultaneo ha colpito Claude, ChatGPT e Gemini, mettendo in luce quanto l’infrastruttura AI globale sia fragile e interdipendente. Dario Amodei, CEO e cofondatore di Anthropic, lo ha ammesso senza giri di parole: gli utenti dicono che Claude è sempre più essenziale per il loro lavoro, e l’infrastruttura deve tenere il passo. La partnership con Amazon garantisce capacity immediate, con compute disponibile già nel prossimo trimestre.

C’è un altro aspetto. Anthropic sta diversificando l’hardware su cui gira Claude, distribuendo i workload tra AWS Trainium, Google TPU e GPU Nvidia. Ogni tipo di compito finisce sul chip più adatto. Una scelta sensata per non dipendere da un singolo fornitore, che però si scontra con un contratto da 100 miliardi legato a un solo cloud provider. AWS diventa il fornitore primario per il training e i workload mission-critical.

Una gabbia dorata. Ma pur sempre una gabbia.

Cosa ci guadagna Amazon

Per Amazon il calcolo è semplice. L’AI generativa è il driver di crescita più forte per AWS, e assicurarsi i clienti più avidi di compute è questione di sopravvivenza competitiva. Google Cloud e Microsoft Azure inseguono lo stesso obiettivo: Google ha investito in Anthropic tramite partnership computazionale, Microsoft ha in OpenAI il suo asset di riferimento. Ogni miliardo speso da Anthropic su AWS è un miliardo che non finisce nelle casse di un concorrente.

Andy Jassy, CEO di Amazon, ha puntato tutto sul silicio proprietario. I chip Trainium offrono prestazioni competitive a un costo nettamente inferiore rispetto alle GPU Nvidia, e Anthropic che si impegna a usare Trainium per il prossimo decennio è la testimonial migliore che Amazon potesse desiderare. Più di 100.000 clienti usano già Claude su Amazon Bedrock. Con la Claude Platform direttamente integrata in AWS (stesso account, stessa fatturazione, stessi controlli di compliance), la barriera all’uscita si alza ulteriormente.

Il contesto più ampio

L’accordo arriva in un momento delicato per Anthropic.

A marzo la compagnia ha rifiutato un contratto da 200 milioni con il Pentagono per l’uso autonomo di armi, venendo etichettata come “rischio per la catena di approvvigionamento” da diverse agenzie governative statunitensi. Il suo CPO Mike Krieger si è dimesso la settimana scorsa. E secondo TechCrunch, VCs avrebbero offerto capitali per una valutazione attorno agli 800 miliardi di dollari, che Anthropic ha declinato. Per ora.

La mossa di Amazon fa parte di una strategia più ampia di costruzione dell’infrastruttura AI in anticipo rispetto alla domanda, come analizzato da Data Center Knowledge. L’azienda sta investendo circa 200 miliardi in infrastruttura AI. Quando un provider ha clienti garantiti per 100 miliardi, può permettersi di costruire data center prima che la domanda si materializzi. Nessun concorrente ha questo lusso.

Per chi usa Claude ogni giorno, l’impatto immediato sarà positivo: più capacità significa meno disservizi e tempi di risposta più stabili. Ma la concentrazione di così tanto potere infrastrutturale in poche mani è un segnale preoccupante. Se tre aziende controllano il calcolo su cui gira l’intelligenza artificiale più avanzata del mondo, la competizione non si gioca più sui modelli. Si gioca sui data center.

Categorized in:

Breaking AI,

Last Update: Aprile 21, 2026