Pentagon wybiera OpenAI – Anthropic idzie do sądu

Sam Altman przez lata deklarował, że nie będzie współpracować z wojskiem

Jarosław Szeląg
6 min czytania

W piątek wieczorem Sam Altman ogłosił umowę, która zmienia układ sił w wyścigu o wojskowe kontrakty AI. OpenAI i Departament Wojny Stanów Zjednoczonych zawarły porozumienie umożliwiające wdrożenie modeli firmy w niejawnych sieciach Pentagonu. Tego samego dnia Anthropic – dotychczasowy partner – ogłosił, że pozwie Pentagon za wpisanie go na czarną listę. Dwie firmy, które startowały z podobnych pozycji w kwestii bezpieczeństwa AI, wybrały w piątkowy wieczór dramatycznie różne drogi.

Altman ogłosił umowę w nocnej notatce do pracowników, podkreślając, że Departament Wojny zaakceptował dwie kluczowe „czerwone linie” OpenAI: zakaz masowej inwigilacji krajowej oraz wymóg odpowiedzialności człowieka za użycie siły, w tym w przypadku autonomicznych systemów uzbrojenia. „Departament Wojny zgadza się z tymi zasadami, odzwierciedla je w prawie i polityce, a my wpisaliśmy je do naszej umowy” – napisał Altman.

CYNICZNYM OKIEM: OpenAI przez lata deklarowało, że nie będzie współpracować z wojskiem. Teraz współpracuje – i ogłasza to jako triumf bezpieczeństwa AI. Zasady są trwałe do momentu, gdy pojawi się wystarczająco duży kontrakt. Wtedy stają się negocjowalne, a potem wpisane do umowy jako dowód na ich przestrzeganie.

Dlaczego Anthropic przegrało kontrakt, który nie był do wygrania?

Tło sprawy jest równie ważne jak sam wynik. Urzędnicy Pentagonu i prezydent Trump byli – według Axios – wściekli na samą myśl, że Anthropic mógłby mieć jakikolwiek wpływ na to, jak wojsko wykorzystuje technologię AI. Trump napisał na Truth Social bez ogródek: „To MY będziemy decydować o losie naszego kraju – a NIE jakaś wymykająca się spod kontroli, radykalnie lewicowa firma AI prowadzona przez ludzi, którzy nie mają pojęcia, o co chodzi w prawdziwym świecie”.

Wysoki rangą urzędnik Pentagonu sformułował to spokojniej, ale równie jednoznacznie: „Problem z Dario polega na tym, że u niego to kwestia ideologiczna. Wiemy, z kim mamy do czynienia”.

Kluczowy spór jest techniczny i filozoficzny jednocześnie. Anthropic twierdzi, że prawo nie nadążyło za AI i obawia się, że sztuczna inteligencja może drastycznie usprawnić legalne gromadzenie publicznie dostępnych danych – od postów w mediach społecznościowych po geolokalizację – w sposób, który de facto stworzy masową inwigilację bez naruszania litery obowiązujących przepisów. Pentagon i OpenAI twierdzą, że wystarczy przestrzegać istniejącego prawa. Jak ocenia Axios, Altman przyjmuje założenie, że masowa inwigilacja jest nielegalna i Pentagon będzie prawo respektować – i na tej podstawie zawiera umowę. Anthropic uważa, że to naiwność lub wygodne uproszczenie.

Ograniczenia zawarte w umowie OpenAI odzwierciedlają istniejące prawo USA i politykę Pentagonu – źródło zaznajomione ze sprawą powiedziało Axios wprost, że intencją nie było tworzenie nowych standardów prawnych. To precyzyjne rozróżnienie: OpenAI zobowiązuje się do nieprzekraczania tego, co prawo już zakazuje. Anthropic chciało zobowiązań wykraczających poza obowiązujące prawo, uwzględniających luki, które AI dopiero tworzy. Pentagon uznał to za ingerencję w własne kompetencje.

Architektura umowy i to, czego w niej nie ma

Szczegóły techniczne porozumienia są równie wymowne jak jego polityczny kontekst. Wdrożenia będą odbywać się wyłącznie w sieciach chmurowych – nie w środowiskach „edge”, co wyklucza scenariusz autonomicznej broni działającej bez połączenia z centrum. OpenAI oddeleguje inżynierów wdrożeniowych do pomocy i monitorowania zachowania modeli. Firma chce też, by badacze posiadający poświadczenia bezpieczeństwa mogli śledzić sposób wykorzystania technologii i doradzać rządowi w kwestii ryzyka.

To architektura nadzoru, która wygląda na przemyślaną – choć jej skuteczność będzie zależeć od tego, jak Pentagon zinterpretuje zobowiązania w praktyce operacyjnej, a nie w tekście umowy. Altman zawarł w swoim oświadczeniu zdanie, które brzmi jak deklaracja zasad, ale jest też wezwaniem do branży: „Prosimy Departament Wojny o zaoferowanie tych samych warunków wszystkim firmom z branży AI – uważamy, że każdy powinien być gotów je zaakceptować”.

To elegancki ruch. Jeśli Pentagon zaakceptuje propozycję, OpenAI staje się współautorem standardów dla całej branży. Jeśli odmówi, OpenAI ma dokument potwierdzający, że chciało więcej przejrzystości.

CYNICZNYM OKIEM: Altman wpisał „czerwone linie” do umowy z wojskiem i zaproponował, by takie same standardy obowiązywały konkurencję. To jak zaproponowanie przepisów drogowych przez producenta samochodów – brzmi jak troska o bezpieczeństwo, a jest też skutecznym narzędziem budowania przewagi rynkowej.

Piątkowy wieczór był dla Altmana wyjątkowo udany w innym wymiarze – tego samego dnia OpenAI pozyskało Amazon AWS jako partnera. Dwa przełomowe porozumienia w ciągu jednego dnia tworzą dynamikę, której Anthropic, uwikłany w spór prawny z Pentagonem, nie zdoła szybko odwrócić.

Anthropic ogłosił, że pozwie Departament Obrony za wpisanie firmy na czarną listę – i ma w tej sprawie prawne argumenty. Ale procesowanie się z wojskiem administracji, która już publicznie określiła firmę jako „radykalnie lewicową”, w otoczeniu politycznym 2025 roku, jest strategią o trudnym do przewidzenia wyniku. Dario Amodei postawił na zasady tam, gdzie Altman postawił na umowę – i przynajmniej na razie rynek, wojsko i Biały Dom nagradzają to drugie podejście.

Pytanie, które zostaje po całej tej historii, nie jest pytaniem o to, kto wygrał piątkowy wieczór. To pytanie o to, czy „czerwone linie” wpisane do umowy z wojskiem będą w praktyce czymś więcej niż atramentem na papierze – i czy ktokolwiek z zewnątrz będzie miał możliwość to zweryfikować.


Informacja prawna / Disclaimer
Portal Cynicy.pl publikuje treści własne redakcji oraz opracowania oparte na materiałach i koncepcjach autorów zewnętrznych (cytaty, analizy, video transkrypty).
– Opinie w opracowaniach zewnętrznych nie odzwierciedlają stanowiska redakcji.
– Redakcja nie odpowiada za ich dokładność, kompletność czy skutki wykorzystania.
– Cytaty mieszczą się w dozwolonym użytku (art. 29 ustawy o prawie autorskim).
– Zgłoszenia/zażalenia: redakcja@cynicy.pl – usuwamy po weryfikacji.

Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl. Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *