ChatGPT ma 207 mld USD dziury do załatania do końca dekady

OpenAI marzy o 3 mld użytkowników, ale rachunki za chmurę pożerają miliardy

Jarosław Szeląg
3 min czytania

Według analizy HSBC, OpenAI, firma tworząca ChatGPT, będzie musiała zdobyć co najmniej 207 miliardów dolarów nowego finansowania do 2030 r., aby utrzymać i rozwijać swoją infrastrukturę AI. Pomimo dynamicznego wzrostu użytkowników i przychodów, koszty obsługi ogromnych mocy obliczeniowych, w tym umów z Microsoftem, Amazonem i Oracle, rosną dużo szybciej niż zyski.

Firma planuje osiągnąć około 3 miliardy użytkowników do końca dekady, co stanowi 44% dorosłej populacji świata poza Chinami. Jednak nawet przy takim wzroście oraz wzroście liczby płatnych subskrybentów, przewidywane przychody na poziomie 174 mld dolarów rocznie nie pokrywają rosnących wydatków na wynajem centrów danych i moc obliczeniową, które mają sięgnąć 792 mld dolarów do 2030 roku.

ai

CYNICZNYM OKIEM: OpenAI to jak gigantyczna, niekończąca się dziura finansowa – z jednej strony szturm popularności globalnej, z drugiej lawina rachunków za moc, która pochłania gotówkę szybciej niż możliwe jest jej pozyskanie.

RBC prognozuje koszty i ryzyka finansowe

HSBC wskazuje na ryzyko zmęczenia inwestorów, sztywność kontraktów długoterminowych oraz nerwowość na rynku długu, co może ograniczyć pole manewru OpenAI. Ponadto konkurencja na rynku AI rośnie, a udział OpenAI w rynku konsumenckim AI ma spaść do 56% do 2030 roku.

Bank uznaje, że aby zmniejszyć lukę finansową, firma musi znacznie zwiększyć udział płacących użytkowników, poprawić efektywność operacyjną lub pozyskać nowe źródła finansowania poprzez emisję kapitału lub dług.

Jednak nawet optymistyczne scenariusze przewidują dalsze potrzeby inwestycyjne po 2030 roku.

ChatGPT kontra prognozy – optymizm i wyzwania

Dla zabawy zapytaliśmy ChatGPT, czy uważa, że HSBC ma rację w swojej analizie. LLM w większości się zgodził, ale wskazał, że bank pomija:

  • poprawę efektywności architektur,
  • rzadkie modele ekspertowe (sparse experts),
  • inferencję na urządzeniu,
  • delegowanie zadań agentom,
  • efektywność optymalizowaną przez reinforcement learning,
  • kwantyzację,
  • otwartoźródłowe, lokalne modele zastępujące wywołania do chmury.

Innymi słowy: „W historii informatyki nie było precedensu, w którym wraz ze skalowaniem efektywność nie poprawiałaby się dramatycznie.”

Jednak przy rosnącym zapotrzebowaniu na energię i zasoby sprzętowe, a także duże kontrakty długoterminowe, wyzwaniem pozostaje znalezienie równowagi między ekspansją a rentownością.

Wyzwania finansowe OpenAI to symboliczny znak czasu – era sztucznej inteligencji to ogromne możliwości, ale i równocześnie bezprecedensowe wymagania kapitałowe.


Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl.
Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *