Firma, której miliony ludzi powierzają dokumenty prawne, deklaracje podatkowe i intymne rozmowy z chatbotem, podpisała kontrakt na dostarczenie sztucznej inteligencji do tajnych operacji wojskowych USA. A potem musiała go poprawiać, bo – jak przyznano – całość wyglądała na oportunistyczną i niechlujną. OpenAI w jednym zdaniu.

Piątek wieczór, kontrakt gotowy
Chronologia wydarzeń mówi sama za siebie. W piątek załamały się negocjacje między Pentagonem, a Anthropic – konkurencyjnym startupem AI – po rozmowach z sekretarzem obrony Pete’em Hegsethem. Zaledwie kilka godzin później OpenAI zgodziło się zastąpić rywala i dostarczyć swoje modele do użytku w tajnych operacjach wojskowych.
Firma początkowo chwaliła się, że umowa zawiera więcej zabezpieczeń niż jakakolwiek poprzednia umowa dotycząca tajnych wdrożeń AI, w tym umowa Anthropic. Problem w tym, że te zabezpieczenia nie zawierały wyraźnego zakazu wykorzystywania systemów AI do inwigilacji obywateli amerykańskich. Drobny szczegół, który w poniedziałek trzeba było naprawiać.
CYNICZNYM OKIEM: OpenAI podpisało kontrakt z Pentagonem w kilka godzin po odpadnięciu konkurenta i zapomniało wpisać zakaz szpiegowania własnych obywateli. Ale poza tym zabezpieczenia były najlepsze w historii. Sam Altman pewnie nazwałby to iteracyjnym podejściem do praw człowieka.
Zakaz celowy, ale co z niezamierzonym?
Dyrektor generalny Sam Altman ogłosił w poniedziałek, że firma współpracuje z Departamentem Obrony nad dodaniem zapisów zakazujących celowego wykorzystywania systemów do krajowej inwigilacji osób posiadających status obywateli USA. Kluczowe słowo to celowo. Nowe brzmienie kontraktu precyzuje, że system AI nie może być celowo wykorzystywany do śledzenia, inwigilowania lub monitorowania obywateli, w tym poprzez pozyskiwanie komercyjnych danych osobowych.
Dodatkowym ustępstwem jest wyłączenie z umowy agencji wywiadowczych takich jak NSA. Wszelkie usługi dla tych agencji wymagałyby osobnego kontraktu. Departament Obrony planuje również powołanie grupy roboczej złożonej z liderów czołowych laboratoriów AI i dostawców chmurowych.
CYNICZNYM OKIEM: Zakaz celowej inwigilacji brzmi uspokajająco – dopóki nie uświadomisz sobie, że zostawia otwarte drzwi dla inwigilacji niezamierzonej, przypadkowej i wszelkiej innej, która nie mieści się w definicji celowości. W świecie prawa wojskowego słowo celowo jest elastyczne jak budżet Pentagonu.
OpenAI wyraziło nadzieję, że zrewidowana umowa pomoże stworzyć ścieżkę dla innych laboratoriów do współpracy z Departamentem Obrony. Altman prezentuje to jako postęp w zakresie odpowiedzialnego wdrażania AI. Krytycy widzą coś innego – firmę, która w pogoni za rządowym kontraktem najpierw podpisała, a potem przeczytała to, co podpisała. Poprawki dokonane pod presją opinii publicznej nie budzą zaufania – budzą pytanie, co jeszcze przeoczono.



