Stiamo costruendo troppi data center? Il mal di testa delle infrastrutture del boom dell’intelligenza artificiale

6

Il mondo della tecnologia parla di una “bolla dell’intelligenza artificiale”, evocando immagini di disastrosi crolli del mercato e promesse non realizzate. Tuttavia, la situazione potrebbe essere più sfumata di un semplice scenario di boom e recessione. Pensatela in questo modo: anche i buoni investimenti possono inasprirsi se sopravvalutati.

Il cuore del dilemma dell’infrastruttura AI risiede in una discrepanza fondamentale: la velocità vertiginosa dello sviluppo del software AI rispetto al ritmo glaciale della costruzione e dell’equipaggiamento dei data center, gli enormi hub informatici che alimentano questi progressi. Queste strutture colossali richiedono anni per essere costruite e dotate di hardware all’avanguardia. Quando diventeranno operativi, molte cose potrebbero cambiare drasticamente.

L’intricata rete di fornitori che alimenta l’ecosistema AI è incredibilmente dinamica. Prevedere esattamente la quantità di capacità di calcolo di cui avremo effettivamente bisogno tra qualche anno è come guardare in una sfera di cristallo. Fondamentalmente, non si tratta solo di volume di utilizzo grezzo; dipende da come le persone utilizzeranno l’intelligenza artificiale e se si verificheranno scoperte impreviste in aree come l’efficienza energetica, la progettazione di chip o la trasmissione di potenza.

La vastità di queste scommesse aggiunge un ulteriore livello di complessità. Consideriamo il progetto “Stargate”, un’impresa colossale guidata da Oracle, OpenAI (il creatore di ChatGPT) e SoftBank con un prezzo strabiliante di 500 miliardi di dollari solo per l’infrastruttura AI. Per mettere le cose in prospettiva, questo si aggiunge al contratto esistente di servizi cloud da 300 miliardi di dollari di Oracle con OpenAI. Anche Meta non resta indietro, promettendo di spendere l’incredibile cifra di 600 miliardi di dollari in infrastrutture nei prossimi tre anni. Questi impegni sminuiscono le precedenti follie di investimenti tecnologici, rendendo difficile coglierne tutte le ramificazioni.

Tuttavia, in mezzo a questo vortice di investimenti, c’è un persistente punto interrogativo che incombe sulla domanda di servizi di intelligenza artificiale. Un recente sondaggio McKinsey ha fatto luce sulla realtà: mentre la maggior parte delle aziende sta sperimentando l’intelligenza artificiale in qualche modo, poche l’hanno abbracciata con tutto il cuore. L’intelligenza artificiale sta dimostrando il suo valore in casi d’uso di nicchia e nella razionalizzazione di determinati processi, ma non ha ancora rivoluzionato interi modelli di business su larga scala. In sostanza, molte aziende rimangono cautamente ottimiste, in attesa di vedere come l’intelligenza artificiale rimodellerà veramente i loro settori prima di approfondire. Se i data center vengono costruiti in base all’aspettativa di una domanda esplosiva e immediata da parte delle aziende, potrebbero ritrovarsi sovradimensionati e sottoutilizzati per un po’.

Ad aggiungere ulteriore tensione è la minaccia sempre presente delle limitazioni fisiche: anche se l’utilizzo dell’intelligenza artificiale esplodesse come previsto, le infrastrutture tradizionali potrebbero non tenere il passo. Il CEO di Microsoft Satya Nadella ha recentemente espresso maggiore preoccupazione per la disponibilità di spazio nei data center rispetto alla carenza di chip (“Non è un problema di fornitura di chip; è il fatto che non ho un guscio caldo a cui collegarmi”).

Inoltre, i data center esistenti hanno difficoltà a gestire le richieste di energia dei chip IA all’avanguardia. La rete elettrica e l’infrastruttura fisica progettate decenni fa semplicemente non erano concepite per questo livello di intensità computazionale. Questa discrepanza crea una ricetta per costosi colli di bottiglia, indipendentemente dalla velocità con cui avanza la tecnologia del software o dei chip. Mentre Nvidia (uno dei principali produttori di GPU) e OpenAI avanzano a una velocità vertiginosa, la capacità del mondo di tenere il passo con loro rallenta in modo significativo.

Il futuro dell’intelligenza artificiale dipende non solo dal codice e dagli algoritmi, ma anche da un cambiamento fondamentale nella nostra capacità di generare, distribuire e consumare energia. Costruire un numero sufficiente di data center potrebbe essere la parte facile; garantire che abbiano la forza per funzionare in modo efficace potrebbe rivelarsi il vero collo di bottiglia, che potrebbe definire se si tratta davvero di una rivoluzione tecnologica che definisce un’era o di un altro ciclo di clamore seguito dalla disillusione.