OpenAI łata dziury w kontrakcie z Pentagonem po tym jak wszyscy je zauważyli

Zabezpieczenia nie zawierały zakazu wykorzystywania systemów AI do inwigilacji obywateli

Jarosław Szeląg
3 min czytania
OpenAI Pentagon inwigilacja kontrakt wojskowy AI bezpieczeństwo

Firma, której miliony ludzi powierzają dokumenty prawne, deklaracje podatkowe i intymne rozmowy z chatbotem, podpisała kontrakt na dostarczenie sztucznej inteligencji do tajnych operacji wojskowych USA. A potem musiała go poprawiać, bo – jak przyznano – całość wyglądała na oportunistyczną i niechlujną. OpenAI w jednym zdaniu.

openai

Piątek wieczór, kontrakt gotowy

Chronologia wydarzeń mówi sama za siebie. W piątek załamały się negocjacje między Pentagonem, a Anthropic – konkurencyjnym startupem AI – po rozmowach z sekretarzem obrony Pete’em Hegsethem. Zaledwie kilka godzin później OpenAI zgodziło się zastąpić rywala i dostarczyć swoje modele do użytku w tajnych operacjach wojskowych.

Firma początkowo chwaliła się, że umowa zawiera więcej zabezpieczeń niż jakakolwiek poprzednia umowa dotycząca tajnych wdrożeń AI, w tym umowa Anthropic. Problem w tym, że te zabezpieczenia nie zawierały wyraźnego zakazu wykorzystywania systemów AI do inwigilacji obywateli amerykańskich. Drobny szczegół, który w poniedziałek trzeba było naprawiać.

CYNICZNYM OKIEM: OpenAI podpisało kontrakt z Pentagonem w kilka godzin po odpadnięciu konkurenta i zapomniało wpisać zakaz szpiegowania własnych obywateli. Ale poza tym zabezpieczenia były najlepsze w historii. Sam Altman pewnie nazwałby to iteracyjnym podejściem do praw człowieka.

Zakaz celowy, ale co z niezamierzonym?

Dyrektor generalny Sam Altman ogłosił w poniedziałek, że firma współpracuje z Departamentem Obrony nad dodaniem zapisów zakazujących celowego wykorzystywania systemów do krajowej inwigilacji osób posiadających status obywateli USA. Kluczowe słowo to celowo. Nowe brzmienie kontraktu precyzuje, że system AI nie może być celowo wykorzystywany do śledzenia, inwigilowania lub monitorowania obywateli, w tym poprzez pozyskiwanie komercyjnych danych osobowych.

Dodatkowym ustępstwem jest wyłączenie z umowy agencji wywiadowczych takich jak NSA. Wszelkie usługi dla tych agencji wymagałyby osobnego kontraktu. Departament Obrony planuje również powołanie grupy roboczej złożonej z liderów czołowych laboratoriów AI i dostawców chmurowych.

CYNICZNYM OKIEM: Zakaz celowej inwigilacji brzmi uspokajająco – dopóki nie uświadomisz sobie, że zostawia otwarte drzwi dla inwigilacji niezamierzonej, przypadkowej i wszelkiej innej, która nie mieści się w definicji celowości. W świecie prawa wojskowego słowo celowo jest elastyczne jak budżet Pentagonu.

OpenAI wyraziło nadzieję, że zrewidowana umowa pomoże stworzyć ścieżkę dla innych laboratoriów do współpracy z Departamentem Obrony. Altman prezentuje to jako postęp w zakresie odpowiedzialnego wdrażania AI. Krytycy widzą coś innego – firmę, która w pogoni za rządowym kontraktem najpierw podpisała, a potem przeczytała to, co podpisała. Poprawki dokonane pod presją opinii publicznej nie budzą zaufania – budzą pytanie, co jeszcze przeoczono.


Informacja prawna / Disclaimer
Portal Cynicy.pl publikuje treści własne redakcji oraz opracowania oparte na materiałach i koncepcjach autorów zewnętrznych (cytaty, analizy, video transkrypty).
– Opinie w opracowaniach zewnętrznych nie odzwierciedlają stanowiska redakcji.
– Redakcja nie odpowiada za ich dokładność, kompletność czy skutki wykorzystania.
– Cytaty mieszczą się w dozwolonym użytku (art. 29 ustawy o prawie autorskim).
– Zgłoszenia/zażalenia: redakcja@cynicy.pl – usuwamy po weryfikacji.

Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl. Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *