Il futuro dell’intelligenza artificiale si sta costruendo in luoghi che sembrano usciti da un film di fantascienza, ma sono molto reali: i data center. E se le tendenze attuali non cambiano, preparatevi a strutture che ospiteranno milioni di chip, costeranno centinaia di miliardi di dollari e consumeranno l’energia di un’intera grande città.

Questa non è una previsione campata in aria, ma emerge da un nuovo, illuminante studio condotto da ricercatori di Georgetown, Epoch AI e Rand. Hanno spulciato un dataset enorme, con oltre 500 progetti di data center AI in tutto il mondo dal 2019 a oggi. La scoperta? Non solo le performance di calcolo raddoppiano ogni anno, ma anche i costi e il fabbisogno energetico seguono lo stesso ritmo vertiginoso.

Capite bene che costruire l’infrastruttura necessaria a sostenere questa corsa all’AI nei prossimi dieci anni è una sfida colossale.

Non a caso, colossi come OpenAI – che dice che circa il 10% della popolazione mondiale usa ChatGPT – stanno puntando in grande, con progetti da capogiro. Uno, ad esempio, prevede di raccogliere fino a 500 miliardi di dollari per costruire una rete di data center AI negli Stati Uniti (e forse anche altrove). E non sono i soli: Microsoft, Google e AWS, giusto per citarne alcuni, hanno già messo sul piatto centinaia di miliardi di dollari solo per quest’anno per espandere le loro ‘impronte’ digitali.

Tornando allo studio di Georgetown, Epoch e Rand, i numeri sono chiari e un po’ spaventosi. I costi dell’hardware per questi ‘cervelli’ artificiali, come il famoso Colossus di xAI (stimato circa 7 miliardi di dollari), sono quasi raddoppiati ogni anno dal 2019 al 2025 (aumento di 1.9 volte). E il consumo energetico? È raddoppiato esattamente nello stesso periodo. (Colossus, per intenderci, ‘succhia’ circa 300 megawatt, l’equivalente di 250.000 case!).

Certo, c’è anche una buona notizia: i data center sono diventati più efficienti. Le performance per watt consumato sono migliorate di 1.34 volte all’anno dal 2019 al 2025. Ma – e qui sta il punto dolente – questi miglioramenti non bastano, neanche lontanamente, a compensare la crescita esponenziale della domanda. La proiezione per il giugno 2030 fa riflettere: il data center AI più grande al mondo potrebbe avere 2 milioni di chip, costare 200 miliardi di dollari e richiedere 9 GW di potenza. Per capirci, è più o meno la potenza di nove reattori nucleari messi insieme.

Questa fame insaziabile di energia non è solo un numero astratto. Sta mettendo a dura prova le nostre reti elettriche. Si stima che il consumo energetico dei data center crescerà del 20% entro il 2030. Pensateci: questo potrebbe spingere le energie rinnovabili, che dipendono dal meteo, ai loro limiti, costringendoci a tornare a fonti meno ‘pulite’ come i combustibili fossili.

Ma non è finita qui. Questi ‘mostri’ digitali hanno anche altri impatti ambientali, come un consumo idrico elevatissimo (servono per raffreddare i sistemi) e occupano spazi preziosi. Senza contare le questioni fiscali: alcuni studi suggeriscono che incentivi troppo generosi per attirare i data center stiano facendo perdere a diversi stati centinaia di milioni di dollari all’anno in entrate.

Certo, è importante dire che queste proiezioni potrebbero non avverarsi esattamente così, o i tempi potrebbero cambiare. Ci sono già segnali di un possibile ‘raffreddamento’. Alcuni grandi nomi, come AWS e Microsoft, hanno ridimensionato progetti di data center nelle ultime settimane. E gli analisti di Cowen, a metà aprile, parlavano di un “rallentamento” nel mercato all’inizio del 2025, forse un segnale che il settore teme un’espansione troppo veloce e insostenibile.

Categorized in:

Breaking AI,

Last Update: Aprile 29, 2025