Anthropic na czarnej liście? Bitwa o granice AI w wojskowych operacjach

Pentagon chce AI bez skrupułów: konflikt z twórcami Claude'a narasta

Jarosław Szeląg
6 min czytania

W świecie, w którym algorytm decyduje szybciej niż człowiek, spór o granice etyki w technologii przerodził się w otwartą wojnę. Pentagon rozważa wpisanie firmy Anthropic – twórcy modelu Claude – na listę zagrożeń dla łańcucha dostaw, co w praktyce oznacza jej wyrzucenie z amerykańskiego ekosystemu obronnego. Tego rodzaju sankcje stosuje się zwykle wobec podmiotów z Chin, Rosji lub Iranu – a nie wobec jednej z ikon amerykańskiej Doliny Krzemowej.

Sekretarz obrony Pete Hegseth ma być, jak informuje Axios, „bliski zerwania współpracy”. Powód? Odrzucenie żądania Armii USA, by zdjąć etyczne blokady chroniące przed masową inwigilacją, cyberatakami i użyciem AI w broni autonomicznej.

„To będzie koszmar logistyczny – ale zapłacą za to, że zmusili nas do działania” – miał powiedzieć anonimowy urzędnik Departamentu Obrony. W jego słowach pobrzmiewa echo tej samej logiki, która od dekad przesuwa granicę między bezpieczeństwem, a kontrolą.

CYNICZNYM OKIEM: Dla Pentagonu nie ma nic bardziej podejrzanego niż firma, która ma sumienie.

Technologia przeciw twórcom

Model Claude, stworzony przez Anthropic, nie jest eksperymentem w laboratorium – już dziś działa w systemach wojskowych, także tych tajnych. Podczas styczniowej operacji przeciw dyktatorowi Wenezueli Nicolásowi Maduro jego algorytmy analizowały dane wywiadowcze. Kiedy jednak w Dolinie Krzemowej zaczęły pojawiać się pytania o udział sztucznej inteligencji w akcji, w której padły strzały, Antropic odciął się od militarnego kontekstu – i tym samym rzucił wyzwanie własnemu klientowi.

Szef firmy, Dario Amodei, od miesięcy domaga się „etycznych zabezpieczeń”:

  • zakazu projektowania i użycia broni autonomicznej,
  • braku zgody na nadzór nad obywatelami,
  • i zakazu wspierania działań ofensywnych w cyberprzestrzeni.

Pentagon nazywa te warunki „nierealnymi”, tłumacząc, że armia działa w świecie, gdzie nie ma czarno-białych scenariuszy. W języku wojskowym oznacza to jedno: AI ma być do dyspozycji „we wszystkich zgodnych z prawem zastosowaniach” – czyli w praktyce, bez ograniczeń.

Czynne negocjacje między Pentagonem, a Anthropic przeradzają się w spór filozoficzny o to, czy technologia ma służyć człowiekowi, czy państwu.

Claude jest ucieleśnieniem koncepcji tzw. Constitutional AI – idei, że sztuczna inteligencja powinna kierować się zasadami etycznymi zapisanymi w swego rodzaju „konstytucji moralnej”. Ambitne w nazwie, skromne w zamiarach: AI, która nie pozwoli człowiekowi zrobić wszystkiego, co możliwe.

Dla armii to herezja. Broń, która zastanawia się nad swoim działaniem, jest – jak twierdzi Pentagon – mniej użyteczna niż ta, która po prostu wykonuje rozkaz. Paradoks? Nowoczesna demokracja żąda od maszyn więcej etyki, niż wymaga od własnych polityków.

CYNICZNYM OKIEM: Przez tysiąclecia człowiek tworzył narzędzia bez sumienia. Kiedy jedno z nich postanowiło je mieć, uznano to za zagrożenie bezpieczeństwa narodowego.

Musk wchodzi do gry

Na tym tle pojawił się jeszcze jeden gracz – Elon Musk, samozwańczy prorok „prawdziwej sztucznej inteligencji”. W styczniu jego firma xAI została odcięta od modelu Claude, z którego korzystała do celów badawczych. Musk odpowiedział tak, jak zawsze – publiczną zemstą.

Oskarżył Anthropic o „nienawiść do ludzi”, „ideologiczną stronniczość” i „mizantropię”, a nazwę firmy wyśmiał jako antytezę humanizmu. Oczywiście nie była to tylko emocja, lecz również strategia: jego produkt, model Grok, ma być „poszukiwaczem prawdy” – AI bez filtrów politycznej poprawności.

Oskarżenia nie są całkowicie bezzasadne: użytkownicy zauważają, że Claude faktycznie odmawia odpowiedzi na kontrowersyjne pytania, żarty czy symulacje historyczne. Jednak za tym moralnym filtrem stoi fundament biznesowy Anthropic – zaufanie, że AI da się okiełznać nie siłą, a zasadami.

Ryzyko łańcucha dostaw: idea kontra imperium

Jeśli Pentagon rzeczywiście uzna Anthropic za „zagrożenie dla łańcucha dostaw”, konsekwencje sięgną daleko poza jedną firmę. Każda korporacja współpracująca z amerykańskim wojskiem będzie musiała poświadczyć, że nie używa modelu Claude ani żadnych jego pochodnych.

To oznacza kosztowne czyszczenie infrastruktury – w praktyce cyfrowy exodus, który sparaliżuje wiele systemów. „To jakby przeciąć nerw w sieci neuronowej całego kompleksu przemysłowo-obronnego” – przyznaje jeden z analityków.

Ironia polega na tym, że Pentagon sam przyznaje: inne modele AI są nadal „tuż za” Anthropic pod względem skuteczności w operacjach wojskowych. Zastąpienie Claude – mimo różnic ideologicznych – oznaczałoby spadek wydajności i ryzyko w operacjach o znaczeniu strategicznym.

CYNICZNYM OKIEM: To klasyczna wojna religijna – tylko bogowie mają kształt algorytmów, a święte księgi zapisano kodem.

Oficjalnie chodzi o bezpieczeństwo narodowe, w rzeczywistości o dominację nad najważniejszym zasobem XXI wieku – informacją. Pentagon chce AI bez sumienia, zdolnej działać w „strefach szarości”, bo tam toczy się współczesna wojna. Anthropic chce stworzyć AI, która nawet w chaosie zachowa to, co ludzkie.

To starcie, które przypomina konflikt cywilizacyjny: z jednej strony etyczny idealizm Doliny Krzemowej, z drugiej – pragmatyzm militarnego imperium. I jak to zwykle bywa, wygra nie ten, kto ma rację, tylko ten, kto ma serwer.


Informacja prawna / Disclaimer
Portal Cynicy.pl publikuje treści własne redakcji oraz opracowania oparte na materiałach i koncepcjach autorów zewnętrznych (cytaty, analizy, video transkrypty).
– Opinie w opracowaniach zewnętrznych nie odzwierciedlają stanowiska redakcji.
– Redakcja nie odpowiada za ich dokładność, kompletność czy skutki wykorzystania.
– Cytaty mieszczą się w dozwolonym użytku (art. 29 ustawy o prawie autorskim).
– Zgłoszenia/zażalenia: redakcja@cynicy.pl – usuwamy po weryfikacji.

Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl. Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *