Le monde de la technologie parle d’une « bulle de l’IA », évoquant des images d’effondrements désastreux du marché et de promesses non tenues. Cependant, la situation pourrait être plus nuancée qu’un simple scénario d’expansion et de récession. Pensez-y de cette façon : même les bons investissements peuvent se détériorer s’ils sont surexploités.
Le cœur du dilemme de l’infrastructure de l’IA réside dans une inadéquation fondamentale : la vitesse vertigineuse du développement des logiciels d’IA par rapport au rythme glacial de la construction et de l’équipement des centres de données, les énormes hubs informatiques qui alimentent ces avancées. Il faut des années pour construire ces installations colossales et les équiper de matériel de pointe. Au moment où ils seront opérationnels, plusieurs choses pourraient radicalement changer.
Le réseau complexe de fournisseurs qui alimentent l’écosystème de l’IA est incroyablement dynamique. Prédire exactement la capacité de calcul dont nous aurons réellement besoin dans quelques années revient à regarder dans une boule de cristal. Il ne s’agit pas seulement du volume d’utilisation brut ; cela dépend de la manière dont les gens utiliseront l’IA et si des avancées imprévues se produisent dans des domaines tels que l’efficacité énergétique, la conception des puces ou la transmission d’énergie.
L’ampleur de ces paris ajoute une autre couche de complexité. Considérez le projet « Stargate », une entreprise colossale menée par Oracle, OpenAI (le créateur de ChatGPT) et SoftBank, avec un prix exorbitant de 500 milliards de dollars pour la seule infrastructure d’IA. Pour mettre les choses en perspective, cela s’ajoute au contrat de services cloud existant d’Oracle avec OpenAI, d’une valeur de 300 milliards de dollars. Meta n’est pas en reste non plus, promettant de dépenser la somme colossale de 600 milliards de dollars en infrastructures au cours des trois prochaines années. Ces engagements éclipsent les précédentes vagues d’investissements technologiques, ce qui rend difficile d’en saisir toutes les ramifications.
Cependant, au milieu de ce tourbillon d’investissements, un point d’interrogation persiste quant à la demande de services d’IA. Une récente enquête de McKinsey a mis en lumière la réalité : si la plupart des entreprises expérimentent l’IA dans une certaine mesure, rares sont celles qui l’ont adoptée sans réserve. L’IA fait ses preuves dans des cas d’utilisation de niche et dans la rationalisation de certains processus, mais elle n’a pas encore révolutionné l’intégralité des modèles économiques à grande échelle. Essentiellement, de nombreuses entreprises restent prudemment optimistes, attendant de voir comment l’IA remodèle véritablement leur secteur avant de plonger en profondeur. Si les centres de données sont construits dans l’attente d’une demande explosive et immédiate de la part des entreprises, ils risquent de se retrouver surconstruits et sous-utilisés pendant un certain temps.
La menace toujours présente des limitations physiques ajoute encore à la tension : même si l’utilisation de l’IA explose comme prévu, les infrastructures traditionnelles pourraient ne pas suivre le rythme. Le PDG de Microsoft, Satya Nadella, a récemment exprimé une plus grande inquiétude quant à la disponibilité de l’espace dans les centres de données plutôt qu’à la pénurie de puces (« Ce n’est pas un problème d’approvisionnement en puces ; c’est le fait que je n’ai pas de coques chaudes à brancher »).
De plus, les centres de données existants ont du mal à répondre à la demande en énergie des puces IA de pointe. Le réseau électrique et l’infrastructure physique conçus il y a plusieurs décennies n’étaient tout simplement pas conçus pour ce niveau d’intensité informatique. Cette inadéquation crée une recette pour des goulots d’étranglement coûteux, quelle que soit la rapidité avec laquelle progresse la technologie des logiciels ou des puces. Alors que Nvidia (un des principaux fabricants de GPU) et OpenAI avancent à une vitesse vertigineuse, la capacité du monde à suivre leur rythme est considérablement à la traîne.
L’avenir de l’IA ne dépend pas seulement du code et des algorithmes, mais également d’un changement fondamental dans notre capacité à générer, distribuer et consommer de l’énergie. Construire suffisamment de centres de données peut être la partie la plus facile ; S’assurer qu’ils disposent des ressources nécessaires pour fonctionner efficacement pourrait s’avérer être le véritable goulot d’étranglement – un goulot d’étranglement qui pourrait déterminer s’il s’agit véritablement d’une révolution technologique marquante ou d’un autre cycle de battage médiatique suivi de désillusion.
