
Microsoft ma magazyny pełne potężnych układów GPU, ale nie może ich uruchomić — brakuje prądu i gotowych centrów danych. Satya Nadella ostrzega: prawdziwym wyzwaniem dla rozwoju sztucznej inteligencji staje się dziś nie sprzęt, lecz energia.
Sztuczna inteligencja coraz śmielej wkracza w każdy obszar naszego życia — od pracy biurowej i edukacji po medycynę, finanse i rozrywkę. Jej rozwój nabiera zawrotnego tempa, a giganci technologiczni zamawiają rekordowe ilości układów graficznych, by sprostać rosnącym wymaganiom obliczeniowym. Jednak prawdziwym hamulcem tego postępu może okazać się nie brak chipów, lecz coś znacznie bardziej przyziemnego — energia.
W trakcie rozmowy z Bradem Gerstnerem, gospodarzem podcastu Bg2 Pod, dyrektor generalny Microsoftu Satya Nadella i prezes OpenAI Sam Altman zgodzili się, że największym problemem branży sztucznej inteligencji nie jest już niedobór układów GPU — lecz brak mocy elektrycznej potrzebnej do ich uruchomienia.
„Mamy chipy, ale nie mamy gdzie ich podłączyć”
Nadella ujawnił, że Microsoft posiada w magazynach karty graficzne gotowe do pracy, jednak nie jest w stanie ich zainstalować z powodu braku odpowiedniej infrastruktury energetycznej.
“To nie jest problem podaży chipów, tylko kwestia tego, że nie mam ‘ciepłych obudów’, do których mógłbym je podłączyć” — powiedział Nadella, odnosząc się do tzw. data center shells, czyli gotowych budynków centrów danych wyposażonych w dostęp do prądu i wody.
Jego słowa potwierdzają wcześniejsze prognozy prezesa NVIDII, Jensena Huanga, który stwierdził, że w ciągu najbliższych kilku lat nie grozi nam "nadpodaż mocy obliczeniowej”. Wręcz przeciwnie — popyt na infrastrukturę AI wciąż gwałtownie rośnie.
Wyścig o energię dla sztucznej inteligencji
Serwis Tom’s Hardware zauważył, że rosnące zapotrzebowanie na energię dla centrów danych AI już teraz wywołuje poważne skutki gospodarcze. Ceny energii elektrycznej w USA rosną, a eksperci ostrzegają, że rozwój infrastruktury AI może uderzyć w przeciętnego konsumenta.
OpenAI apeluje do rządu Stanów Zjednoczonych o zwiększenie krajowych mocy wytwórczych — nawet o 100 gigawatów rocznie — argumentując, że energia jest „strategicznym zasobem” w rywalizacji z Chinami. Pekin, dzięki inwestycjom w hydroenergetykę i energetykę jądrową, ma obecnie znaczną przewagę w zdolnościach produkcji prądu.
W międzyczasie firmy technologiczne poszukują alternatywnych źródeł zasilania, takich jak małe modułowe reaktory jądrowe (SMR), które mogłyby uniezależnić centra danych od tradycyjnych sieci energetycznych.
Przyszłość: AI w naszych kieszeniach?
Podczas rozmowy Altman wspomniał również o przyszłości konsumenckich urządzeń AI. Według niego nadejdzie moment, w którym możliwe stanie się uruchamianie modeli pokroju GPT-5 lub GPT-6 lokalnie — na sprzęcie działającym przy niskim poborze mocy.
“To trudne do wyobrażenia, ale pewnego dnia stworzymy urządzenie konsumenckie, które uruchomi model tej klasy całkowicie lokalnie” — zapowiedział Altman.
Taki rozwój technologii mógłby jednak zachwiać obecnym modelem biznesowym gigantów inwestujących miliardy dolarów w rozbudowę ogromnych centrów danych. Jeśli moc obliczeniowa przeniesie się z chmur do urządzeń użytkowników, zapotrzebowanie na infrastrukturę w chmurze może gwałtownie spaść.
Nowa era infrastruktury AI
Wypowiedzi Nadelli i Altmana jasno pokazują, że przyszłość branży AI nie zależy już wyłącznie od postępu w projektowaniu chipów, lecz od zdolności świata do zasilania tej technologii.
W obliczu rosnącego zużycia energii, niedoborów komponentów i opóźnień w budowie centrów danych — walka o dominację w AI staje się nie tylko wyścigiem technologicznym, ale też energetycznym.







Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!