Saga jednej z najbardziej spektakularnych technologicznych współprac ostatniej dekady, czyli OpenAI i Microsoftu, wchodzi w nową fazę napięć i ryzyka, które mogą mieć dalekosiężne skutki dla całej branży AI i chmurowych usług.
Ambitne plany kontra techniczne ograniczenia
OpenAI, wyceniane na około 500 miliardów dolarów, uzależniało swój rozwój od potężnej infrastruktury serwerowej – planując do 2030 roku wydać aż 450 miliardów dolarów na serwery i wynajem mocy obliczeniowej od Microsoft i Oracle.
Jednak Microsoft, będący głównym inwestorem OpenAI z wkładem 13 miliardów dolarów, zaczyna sygnalizować przesyt i ryzyko nadmiernej pojemności centrów danych. CFO Amy Hood ostrzega, że tempo rozbudowy infrastruktury nie nadąża za ambicjami Sama Altmana, a dodatkowo pojawiają się ograniczenia wynikające z kwestii prawnych, dostępu do energii i materiałów budowlanych.
CEO OpenAI nalega na szybkie zwiększenie mocy obliczeniowej, co wywołuje tarcia w relacji z Microsoft, który musi balansować między rozbudową, a ryzykiem ponoszenia kosztów, które mogą nie przynieść oczekiwanego zwrotu.
Latem 2024 roku obie firmy osiągnęły porozumienie zezwalające OpenAI na zawieranie umów z innymi dostawcami chmurowymi poza Microsoft, co dla wielu było symbolicznym końcem monopolistycznej współpracy.
Czy wzrost popularności ChatGPT osiąga szczyt?
Rosnące napięcia pojawiają się w momencie, gdy analizy rynkowe, jak te z TechCrunch i Apptopia, wskazują na możliwe znużenie użytkowników aplikacją ChatGPT i osiągnięcie szczytowego wzrostu liczby dziennych aktywnych użytkowników (DAU).



Goldman Sachs zwraca uwagę, że choć popyt na usługi AI ciągle przewyższa podaż, przewidywania na lata 2027-2030 wskazują na możliwe rozluźnienie równowagi popytu i podaży.

Według wewnętrznego modelu dostawcy infrastruktury Jamesa Schneidera, szczyt wykorzystania mocy obliczeniowej centrów danych przesunie się na 2026 rok, z wcześniejszego prognozowanego końca 2025 roku. Model przewiduje umiarkowane dopasowanie podaży do rosnącego popytu, ale z możliwymi zmianami zależnymi od nowych technologii, takich jak efektywniejsze GPU lub dodatkowe dostawy sprzętu.
CYNICZNYM OKIEM: Za każdym arcydziełem AI stoi armia chłodziarek, kabli i centrów danych, które pochłaniają energię jak niewyczerpane bestie. Gdy inwestorzy przewidują bańkę na rynku AI większą niż internetowa dekadę temu, cierpliwość rynku i technologiczne wyzwania Microsoftu zaczynają wystawiać na próbę nie tylko marzenia o wszechobecnej AI, lecz i finanse najpotężniejszych graczy.
Przyszłość infrastruktury AI – wyścig z czasem i technologią
Microsoft konsekwentnie inwestuje w gigantyczne centra danych, takie jak budowane obecnie w Wisconsin, które mają oferować 10-krotnie większą wydajność niż współczesne superkomputery, a zasilanie ich ma pochodzić wyłącznie ze źródeł bezemisyjnych. To nie tylko inwestycja w moc obliczeniową, ale i w ochronę planety.
Konflikt interesów między OpenAI, a Microsoftem, połączony z rynkowymi sygnałami spadającej dynamiki wzrostu użytkowników ChatGPT, stawia branżę AI i chmur obliczeniowych w punkcie krytycznym.
Czy ekspansja centrów danych zostanie dopasowana do realnej potrzeby, czy też stanie się kolejną bańką, która zburzy zaufanie inwestorów i użytkowników? Odpowiedź na to pytanie zadecyduje o przyszłości całej sztucznej inteligencji, zarówno tej dostępnej dla konsumentów, jak i kluczowych aplikacji biznesowych.
O dziwo, matka technologiczna nowej ery może pochodzić nie tylko z innowacji algorytmicznych, ale także z tego, jak skutecznie rozwiążemy problemy infrastruktury i zrównoważonego rozwoju.


