W świecie, w którym algorytm decyduje szybciej niż człowiek, spór o granice etyki w technologii przerodził się w otwartą wojnę. Pentagon rozważa wpisanie firmy Anthropic – twórcy modelu Claude – na listę zagrożeń dla łańcucha dostaw, co w praktyce oznacza jej wyrzucenie z amerykańskiego ekosystemu obronnego. Tego rodzaju sankcje stosuje się zwykle wobec podmiotów z Chin, Rosji lub Iranu – a nie wobec jednej z ikon amerykańskiej Doliny Krzemowej.
Sekretarz obrony Pete Hegseth ma być, jak informuje Axios, „bliski zerwania współpracy”. Powód? Odrzucenie żądania Armii USA, by zdjąć etyczne blokady chroniące przed masową inwigilacją, cyberatakami i użyciem AI w broni autonomicznej.
„To będzie koszmar logistyczny – ale zapłacą za to, że zmusili nas do działania” – miał powiedzieć anonimowy urzędnik Departamentu Obrony. W jego słowach pobrzmiewa echo tej samej logiki, która od dekad przesuwa granicę między bezpieczeństwem, a kontrolą.
CYNICZNYM OKIEM: Dla Pentagonu nie ma nic bardziej podejrzanego niż firma, która ma sumienie.
Technologia przeciw twórcom
Model Claude, stworzony przez Anthropic, nie jest eksperymentem w laboratorium – już dziś działa w systemach wojskowych, także tych tajnych. Podczas styczniowej operacji przeciw dyktatorowi Wenezueli Nicolásowi Maduro jego algorytmy analizowały dane wywiadowcze. Kiedy jednak w Dolinie Krzemowej zaczęły pojawiać się pytania o udział sztucznej inteligencji w akcji, w której padły strzały, Antropic odciął się od militarnego kontekstu – i tym samym rzucił wyzwanie własnemu klientowi.
Szef firmy, Dario Amodei, od miesięcy domaga się „etycznych zabezpieczeń”:
- zakazu projektowania i użycia broni autonomicznej,
- braku zgody na nadzór nad obywatelami,
- i zakazu wspierania działań ofensywnych w cyberprzestrzeni.
Pentagon nazywa te warunki „nierealnymi”, tłumacząc, że armia działa w świecie, gdzie nie ma czarno-białych scenariuszy. W języku wojskowym oznacza to jedno: AI ma być do dyspozycji „we wszystkich zgodnych z prawem zastosowaniach” – czyli w praktyce, bez ograniczeń.
Czynne negocjacje między Pentagonem, a Anthropic przeradzają się w spór filozoficzny o to, czy technologia ma służyć człowiekowi, czy państwu.
Claude jest ucieleśnieniem koncepcji tzw. Constitutional AI – idei, że sztuczna inteligencja powinna kierować się zasadami etycznymi zapisanymi w swego rodzaju „konstytucji moralnej”. Ambitne w nazwie, skromne w zamiarach: AI, która nie pozwoli człowiekowi zrobić wszystkiego, co możliwe.
Dla armii to herezja. Broń, która zastanawia się nad swoim działaniem, jest – jak twierdzi Pentagon – mniej użyteczna niż ta, która po prostu wykonuje rozkaz. Paradoks? Nowoczesna demokracja żąda od maszyn więcej etyki, niż wymaga od własnych polityków.
CYNICZNYM OKIEM: Przez tysiąclecia człowiek tworzył narzędzia bez sumienia. Kiedy jedno z nich postanowiło je mieć, uznano to za zagrożenie bezpieczeństwa narodowego.
Musk wchodzi do gry
Na tym tle pojawił się jeszcze jeden gracz – Elon Musk, samozwańczy prorok „prawdziwej sztucznej inteligencji”. W styczniu jego firma xAI została odcięta od modelu Claude, z którego korzystała do celów badawczych. Musk odpowiedział tak, jak zawsze – publiczną zemstą.
Oskarżył Anthropic o „nienawiść do ludzi”, „ideologiczną stronniczość” i „mizantropię”, a nazwę firmy wyśmiał jako antytezę humanizmu. Oczywiście nie była to tylko emocja, lecz również strategia: jego produkt, model Grok, ma być „poszukiwaczem prawdy” – AI bez filtrów politycznej poprawności.
Oskarżenia nie są całkowicie bezzasadne: użytkownicy zauważają, że Claude faktycznie odmawia odpowiedzi na kontrowersyjne pytania, żarty czy symulacje historyczne. Jednak za tym moralnym filtrem stoi fundament biznesowy Anthropic – zaufanie, że AI da się okiełznać nie siłą, a zasadami.
Ryzyko łańcucha dostaw: idea kontra imperium
Jeśli Pentagon rzeczywiście uzna Anthropic za „zagrożenie dla łańcucha dostaw”, konsekwencje sięgną daleko poza jedną firmę. Każda korporacja współpracująca z amerykańskim wojskiem będzie musiała poświadczyć, że nie używa modelu Claude ani żadnych jego pochodnych.
To oznacza kosztowne czyszczenie infrastruktury – w praktyce cyfrowy exodus, który sparaliżuje wiele systemów. „To jakby przeciąć nerw w sieci neuronowej całego kompleksu przemysłowo-obronnego” – przyznaje jeden z analityków.
Ironia polega na tym, że Pentagon sam przyznaje: inne modele AI są nadal „tuż za” Anthropic pod względem skuteczności w operacjach wojskowych. Zastąpienie Claude – mimo różnic ideologicznych – oznaczałoby spadek wydajności i ryzyko w operacjach o znaczeniu strategicznym.
CYNICZNYM OKIEM: To klasyczna wojna religijna – tylko bogowie mają kształt algorytmów, a święte księgi zapisano kodem.
Oficjalnie chodzi o bezpieczeństwo narodowe, w rzeczywistości o dominację nad najważniejszym zasobem XXI wieku – informacją. Pentagon chce AI bez sumienia, zdolnej działać w „strefach szarości”, bo tam toczy się współczesna wojna. Anthropic chce stworzyć AI, która nawet w chaosie zachowa to, co ludzkie.
To starcie, które przypomina konflikt cywilizacyjny: z jednej strony etyczny idealizm Doliny Krzemowej, z drugiej – pragmatyzm militarnego imperium. I jak to zwykle bywa, wygra nie ten, kto ma rację, tylko ten, kto ma serwer.


