In un solo trimestre, le quattro aziende più grandi del mondo della tecnologia hanno speso più di quanto produca l’intero PIL dell’Ucraina. 130 miliardi di dollari in tre mesi, tutti destinati a costruire data center, comprare GPU e stendere cavi di fibra ottica. È il record assoluto per la spesa in capital expenditure del settore tech, e secondo ogni indicazione è solo l’inizio.

I numeri vengono dai risultati del primo trimestre 2026 pubblicati mercoledì 29 aprile da Alphabet, Microsoft, Amazon e Meta. In una sola giornata di earnings, le quattro aziende hanno aggiornato le loro proiezioni di spesa annuale per l’infrastruttura AI portandole a un totale combinato che sfiora i 725 miliardi di dollari per il 2026. Per dare un’idea: è più del PIL della Svizzera.

I numeri, azienda per azienda

Alphabet guida il gruppo con una guidance capex 2026 tra i 180 e i 190 miliardi di dollari. Nel solo primo trimestre, Google ha speso 35,7 miliardi, divisi all’incirca a metà tra server e infrastruttura fisica. La mossa più interessante è un’altra: Sundar Pichai ha annunciato che Google inizierà a vendere i suoi chip TPU direttamente a clienti terzi, tra cui banche d’affari e laboratori AI. È l’unico hyperscaler che monetizza l’hardware verso l’esterno come prodotto a sé stante. Le prime consegne sono previste nel 2027.

Microsoft ha portato la sua proiezione a circa 190 miliardi, di cui 25 miliardi solo per l’inflazione dei componenti. Azure cresce ancora al 40% anno su anno, ma la dinamica curiosa è che a frenare non è la domanda: è la capacità. Non ci sono abbastanza data center pronti per far girare tutti i workload che i clienti chiedono. Microsoft sta anche sviluppando i chip proprietari Maia (per l’AI) e Cobalt (per i server generici) per ridurre la dipendenza da Nvidia.

Amazon è il caso più singolare. AWS ha speso 43,2 miliardi di capex nel primo trimestre, quasi tutti legati ad AI e cloud. Ma il CEO Andy Jassy ha fatto un’affermazione che vale la pena leggere con attenzione: a regime, il chip proprietario Trainium risparmierà ad Amazon decine di miliardi di dollari l’anno in capex e centinaia di punti base di margine operativo rispetto all’uso di chip di terze parti per l’inference. È l’unica azienda del gruppo in cui il silicio custom non aggiunge spesa ma la sostituisce.

Infine Meta. Zuckerberg ha alzato la guidance a 125-145 miliardi (da 115-135) e le azioni sono crollate del 6% in after-hours. Il motivo: Meta non ha un business cloud. Non vende capacità di calcolo a nessuno. Ogni dollaro speso in data center deve generare ritorno attraverso la pubblicità su Facebook, Instagram e WhatsApp. Gli analisti chiedono a gran voce quando questo investimento mostrerà un ritorno tangibile. Zuckerberg risponde che la formula di Meta è sempre stata costruire prodotti per miliardi di persone e monetizzarli una volta raggiunta la scala. Ma 145 miliardi all’anno di scommessa richiedono molta fiducia.

Quello che cambia rispetto al 2025

La differenza con dodici mesi fa è netta. Nel 2025 si parlava di spesa AI come di una corsa all’oro: chi compra più GPU vince. Nel 2026 la questione si è ramificata. Non si tratta più solo di chi ha più schede Nvidia, ma di chi costruisce la supply chain più efficiente per produrre e distribuire intelligenza artificiale. Google vende chip. Amazon risparmia sui chip. Microsoft accelera Azure. Meta affitta capacità da terzi. Quattro aziende, quattro strategie completamente diverse per affrontare lo stesso problema: la domanda di compute AI supera di gran lunga l’offerta disponibile.

Un dettaglio tecnico che passa inosservato:Meta ha firmato nel solo primo trimestre contratti per 107 miliardi di dollari di capacità cloud con fornitori terzi, con scadenze che arrivano al 2027. È la conferma che non può costruire abbastanza in fretta con le proprie forze e deve compensare comprando capacità sul mercato. È anche un segnale per tutti gli altri: se Meta, con i suoi mezzi, non riesce a stare al passo, cosa possono aspettarsi aziende più piccole?

La memoria è il collo di bottiglia che emerge con più forza dai bilanci. Meta ha citato esplicitamente i prezzi della memoria come motivo dell’aumento della guidance. Non è un problema di GPU: è un problema di HBM (High Bandwidth Memory), il tipo di memoria necessaria per far funzionare i chip AI ad alte prestazioni. La carenza di HBM limita quante GPU possono essere effettivamente prodotte e vendute, il che a sua volta alza i prezzi per tutti.

La domanda scomoda

Dietro i numeri, c’è una domanda che investitori e analisti ripetono da mesi: quando inizierà a tornare indietro tutto questo denaro? Le quattro aziende hanno argomenti diversi. Google e Microsoft possono mostrare revenue cloud che cresce del 30-40%. Amazon ha un backlog di impegni Trainium superiore a 225 miliardi. Meta punta sulla pubblicità e sugli agenti AI personali. Ma Melissa Otto, responsabile della ricerca di Visible Alpha per S&P Global, riassume il sentimento comune: la guidance era già alta prima dell’aggiornamento, e la comunità degli investitori comincia a essere frustrata dalla quantità di cassa bruciata senza una chiara linea temporale per i rendimenti.

Intanto, la bolletta energetica di questa corsa è enorme. I data center che le quattro aziende stanno costruendo consumano gigawatt di elettricità, il che spiega perché stanno tutte investendo in energia nucleare, solare e altre fonti. La guerra in Iran e le tensioni nel Medio Oriente hanno fatto salire i prezzi dell’energia, rendendo ancora più urgente la corsa a fonti autonome. Non è un caso che il tema dell’energia per i data center sia diventato un filone a sé stante nelle conferenze degli analisti.

La cifra finale è quasi impossibile da afferrare. Settecentoventicinque miliardi di dollari in un anno. Più di quanto qualsiasi settore, in qualsiasi momento della storia, abbia investito in infrastruttura digitale. E ogni trimestre che passa, la cifra sale.

Categorized in:

Breaking AI,

Last Update: Aprile 30, 2026