Czy budujemy zbyt wiele centrów danych? Wyzwania infrastrukturalne w erze sztucznej inteligencji

3

W świecie technologii kipi bańka sztucznej inteligencji, malująca obrazy katastrofalnych załamań rynku i złamanych obietnic. Jednak sytuacja jest być może bardziej złożona niż tylko scenariusz gwałtownego wzrostu i późniejszego spadku. Pomyśl o tym w ten sposób: nawet dobre inwestycje mogą się nie udać, jeśli przesadzisz.

U podstaw dylematu związanego z infrastrukturą sztucznej inteligencji leży fundamentalne niedopasowanie – zawrotne tempo rozwoju oprogramowania AI w porównaniu z wolnym tempem budowy i wyposażania centrów danych – ogromnych centrów obliczeniowych, które napędzają te przełomy. Budowa tych gigantycznych kompleksów zajmuje lata, a wyposażenie ich w zaawansowany sprzęt jeszcze bardziej opóźnia ten proces. Do czasu uruchomienia może nastąpić szereg zasadniczych zmian.

Złożona sieć dostawców obsługujących ekosystem AI jest niezwykle dynamiczna. Dokładne przewidywanie, ile mocy obliczeniowej będziemy potrzebować za kilka lat, jest jak patrzenie w kryształową kulę. Co ważniejsze, nie chodzi tylko o ilość przetwarzanych danych, ale w jaki sposób ludzie będą korzystać ze sztucznej inteligencji i czy nastąpią nieprzewidziane przełomy w takich obszarach jak efektywność energetyczna, konstrukcja chipów czy przenoszenie mocy.

Tyle, że skala tych zakładów dodaje kolejną warstwę złożoności. Weźmy pod uwagę Projekt Stargate, ogromne przedsięwzięcie kierowane przez Oracle, OpenAI (twórcę ChatGPT) i SoftBank, którego finansowanie na samą infrastrukturę sztucznej inteligencji wynosi astronomiczne 500 miliardów dolarów. Dla porównania, jest to uzupełnienie istniejącej umowy Oracle na usługi w chmurze o wartości 300 miliardów dolarów z OpenAI. Meta nie pozostaje daleko w tyle i obiecuje wydać oszałamiającą kwotę 600 miliardów dolarów na infrastrukturę w ciągu najbliższych trzech lat. Zobowiązania te przyćmiewają poprzedni wzrost inwestycji w sektorze technologii, co utrudnia ocenę ich pełnego znaczenia.

Jednak w obliczu wiru inwestycji pojawia się kwestia popytu na usługi AI. Niedawne badanie McKinsey rzuciło światło na rzeczywistość: chociaż większość firm w pewnym stopniu eksperymentuje ze sztuczną inteligencją, niewiele z nich w pełni ją przyjęło. Sztuczna inteligencja okazała się wartościowym narzędziem w wąsko ukierunkowanych zadaniach i optymalizuje niektóre procesy, ale nie zrewolucjonizowała jeszcze modeli biznesowych na pełną skalę. Zasadniczo wiele firm pozostaje ostrożnym optymistą i czeka, aby zobaczyć, jak sztuczna inteligencja naprawdę zakłóci ich branże, zanim dokona dużych inwestycji. Jeśli centra danych są budowane z myślą o gwałtownym, natychmiastowym zapotrzebowaniu ze strony korporacji, mogą przez pewien czas zostać przeciążone i niedostatecznie wykorzystane.

Do tego napięcia dochodzi stale obecne zagrożenie ograniczeniami fizycznymi — nawet jeśli wykorzystanie sztucznej inteligencji będzie rosło zgodnie z przewidywaniami, tradycyjna infrastruktura może nie nadążać. Niedawno dyrektor generalny Microsoft, Satya Nadella, wyraził więcej obaw związanych z dostępnością przestrzeni w centrach danych niż z powodu niedoboru chipów („To nie jest problem z dostawą chipów; po prostu nie mam obudowy gotowej do podłączenia”).

Co więcej, istniejące centra danych mają trudności z nadążaniem za zużyciem energii przez zaawansowane chipy AI. Sieć energetyczna i infrastruktura fizyczna zaprojektowane kilkadziesiąt lat temu po prostu nie zostały zaprojektowane z myślą o takim poziomie intensywności obliczeń. Ta niewspółosiowość tworzy przepis na kosztowne wąskie gardła, niezależnie od tego, jak szybko rozwija się oprogramowanie lub technologia chipów. Podczas gdy Nvidia (wiodący producent procesorów graficznych) i OpenAI idą do przodu z zawrotną szybkością, zdolność świata do dotrzymania kroku pozostaje w tyle.

Przyszłość sztucznej inteligencji nie zależy tylko od kodu i algorytmów, ale od fundamentalnej zmiany w naszej zdolności do wytwarzania, dystrybucji i zużywania energii. Zbudowanie wystarczającej liczby centrów danych może być łatwą częścią; Zapewnienie im paliwa umożliwiającego efektywne działanie może być prawdziwym wąskim gardłem – czynnikiem, który zadecyduje, czy mamy do czynienia z prawdziwą rewolucją technologiczną tamtej epoki, czy tylko kolejnym cyklem szumu, po którym następuje rozczarowanie.