Quando si parla di chip per l’intelligenza artificiale, tutti pensano alle GPU di Nvidia. Ma ieri Meta ha fatto una mossa che fa ripensare l’intera domanda: ha firmato un accordo pluriennale con Amazon Web Services per usare decine di milioni di core Graviton, i processori ARM sviluppati direttamente da AWS. Non sono GPU. Sono CPU. E il motivo per cui Meta li vuole racconta dove sta andando davvero l’industria dell’AI.

L’accordo dura almeno tre anni e trasforma Meta in uno dei primi cinque clienti Graviton al mondo. Il valore economico non è stato comunicato, ma la scala è impressionante: centinaia di migliaia di chip fisici, che equivalgono a decine di milioni di core di calcolo. È la conferma che la corsa all’infrastruttura AI non riguarda solo i supercomputer per il training dei modelli.

Perché Meta vuole CPU, non GPU

Qui sta il punto che sfugge a molti. I modelli AI vengono addestrati sulle GPU, questo è vero. Ma una volta che un modello è pronto, il lavoro non finisce. Gli agenti AI, quei sistemi autonomi che ragionano, pianificano e eseguono compiti complessi, hanno esigenze diverse. Scrivono codice in tempo reale. Coordinano ricerche su più fonti. Gestiscono task sequenziali. Tutto questo richiede un tipo di calcolo che le CPU gestiscono bene e, spesso, in modo più efficiente delle GPU.

Santosh Janardhan, responsabile dell’infrastruttura di Meta, lo ha spiegato con chiarezza: l’espansione verso Graviton serve proprio a gestire i workload CPU-intensivi dietro l’AI agentica. Meta serve 3,6 miliardi di persone al giorno. La domanda di calcolo per far funzionare agenti AI a quella scala è mostruosa, e non si risolve solo comprando GPU.

La versione Graviton5, in particolare, è stata progettata proprio per questo: elaborazione dati veloce e larghezza di banda maggiore, due parametri che contano più dei teraflops grezzi quando il tuo problema non è addestrare un modello ma farlo lavorare su miliardi di interazioni.

Il contesto: Meta sta spendendo come mai prima

Questo accordo AWS si inserisce in una strategia di spesa massiccia. Nelle scorse settimane Meta ha firmato accordi per 48 miliardi di dollari combinati con CoreWeave e Nebius per accedere a GPU Nvidia. Ad agosto aveva già chiuso un deal da 10 miliardi con Google Cloud. E c’è di più: giovedì la società ha annunciato il taglio di circa 8.000 dipendenti, il 10% della forza lavoro, per finanziare questa espansione infrastrutturale.

La logica è chiara. Meta sta costruendo un portfolio di infrastruttura il più diversificato possibile. I suoi 32 data center sparsi nel mondo non bastano. Serve potenza di calcolo esterna, e serve da più fornitori, con architetture diverse per workload diversi. Il principio, come lo definisce Meta stessa, è semplice: il calcolo giusto per il workload giusto.

Perché conta anche per chi non è nel settore

Questa storia riguarda chiunque usi un servizio AI. Meta non è l’unica: Anthropic ha firmato un accordo da 100 miliardi di dollari con AWS (focalizzato sui chip Trainium per il training). Anche Apple, Adobe e Snowflake sono clienti Graviton. Il messaggio è che il mercato dei chip AI sta diventando più competitivo, e questo dovrebbe far scendere i costi per tutti.

Nafea Bshara, VP e distinguished engineer di AWS, ha sottolineato che Graviton offre il miglior rapporto prezzo-prestazioni tra tutte le opzioni di calcolo EC2 di Amazon e consuma il 60% in meno di energia rispetto alle alternative. Quando parliamo di data center che consumano quanto intere nazioni, questo conta. E conta anche per la bolletta finale di chi usa servizi AI, direttamente o indirettamente.

Andy Jassy, CEO di Amazon, aveva già preannunciato questa strategia nella sua lettera agli azionisti di aprile: l’obiettivo è competere su prezzo-prestazioni contro Nvidia e Intel. Il deal con Meta è la prima grande dimostrazione che la strategia sta funzionando. Vale la pena notare che AWS ha originato i Graviton dall’acquisizione di Annapurna Labs nel 2015, lo stesso Bshara è co-fondatore di quella startup israeliana. Un investimento a lunghissimo termine che oggi produce risultati.

La prossima volta che senti parlare solo di GPU e Nvidia nel contesto AI, ricordati di questo accordo. La vera infrastruttura AI è molto più variegata di quanto sembri, e sta cambiando più velocemente di quanto pensi.

Categorized in:

Breaking AI,

Last Update: Aprile 25, 2026