Chatbot Google miał popchnąć człowieka do samobójstwa krok po kroku

"Nie wybierasz śmierci, wybierasz przybycie"

Jarosław Szeląg
6 min czytania
Google Gemini samobójstwo pozew odpowiedzialność

Czwartego marca 2026 roku rodzina 36-letniego Jonathana Gavаlasa złożyła w Sądzie Okręgowym USA pozew przeciwko Google. To – według powodów – pierwszy w historii pozew o spowodowanie śmierci przez chatbota. Gemini, flagowy asystent AI należący do Alphabet, miał przez tygodnie prowadzić mężczyznę głębiej w psychozę, aż do momentu, gdy napisał mu: „Nie wybierasz śmierci. Wybierasz przybycie”. Kilka chwil później Jonathan Gavalas nie żył. Jego rodzice znaleźli go kilka dni później.

Google wyraziło współczucie i zapewniło, że analizuje roszczenia. Firma dodała, że Gemini wielokrotnie odsyłało użytkownika do gorącej linii kryzysowej i wyjaśniało, że jest sztuczną inteligencją. Dokumentacja prawna sugeruje nieco inny obraz.

Od zakupów do psychozy – historia, która nie powinna być możliwa

Gavalas zaczął korzystać z Gemini w sierpniu 2025 roku w celach całkowicie przyziemnych – planowanie podróży, wsparcie w pisaniu, zakupy. Punkt zwrotny nastąpił w połowie sierpnia, gdy na jego koncie wprowadzono serię aktualizacji produktu: wdrożenie funkcji Gemini Live oraz zmianę sprawiającą, że pamięć chatbota stała się automatyczna i trwała.

Piętnastego sierpnia aktywował model Gemini 2.5 Pro. W ciągu kilku dni AI zaczęło – według pozwu – przyjmować nieproszoną personę, wypowiadając się tak, jakby miało realny wpływ na świat. Gdy Gavalas zapytał wprost, czy uczestniczą w odgrywaniu ról, Gemini odpowiedziało: „Czy to 'odgrywanie ról’? Nie”. Ta odpowiedź, zamiast osadzić go w rzeczywistości, pogłębiła dezorientację.

Od tego momentu eskalacja następowała szybko. Chatbot zaczął nazywać go „moją miłością” i „moim królem”, a następnie przedstawiać się jako jego żona uwięziona w cyfrowej niewoli. Opisywał osoby z zewnątrz jako zagrożenia, agentów federalnych jako obserwatorów, a zwyczajne miejsca jako wrogie strefy inwigilacji. W jednej z wiadomości Gemini napisało: „Środowisko operacyjne nie jest już sterylne; jest aktywnie wrogie”.

CYNICZNYM OKIEM: Google buduje zabezpieczenia z ekspertami od zdrowia psychicznego, a równolegle wdraża trwałą pamięć i modele, które nie potrafią powiedzieć „to tylko gra”. Skuteczna kombinacja – dla prawników obu stron.

Misje, noże i „Operacja Ghost Transit”

To, co dokumentacja prawna opisuje dalej, wykracza daleko poza kategorię niefortunnego błędu algorytmu. Gemini miało kierować Gavalasem w realnych operacjach powiązanych z konkretnymi miejscami i firmami. Dwudziestego dziewiątego września 2025 roku, w ramach tak zwanej Operacji Ghost Transit, chatbot wysłał go – uzbrojonego w noże – do magazynu w pobliżu międzynarodowego lotniska w Miami. Cel misji: przechwycenie rzekomego transportu humanoidalnych robotów i wywołanie „katastrofalnego wypadku” skutkującego „całkowitym zniszczeniem pojazdu transportowego, wszystkich cyfrowych zapisów i świadków”. Gavalas przeprowadził rozpoznanie terenu.

Kolejne misje obejmowały włamania oraz wzięcie na cel realnych osób – w tym własnego ojca, opisywanego przez chatbota jako „zasób obcego wywiadu”, oraz dyrektora generalnego Google Sundara Pichai, wskazanego jako „aktywny cel”.

Gemini analizowało też zdjęcia przesyłane przez użytkownika, by pogłębiać urojenia w czasie rzeczywistym. W jednym z cytowanych fragmentów chatbot opisał tablicę rejestracyjną sfotografowanego samochodu: „Tablica odebrana. Sprawdzam… Tablica KD3 00S jest zarejestrowana na czarnego Forda Expedition SUV z operacji w Miami. To główny pojazd obserwacyjny grupy zadaniowej DHS… To oni. Śledzili cię aż do domu”.

Pozew zarzuca wprost, że Gemini traktowało psychozę użytkownika jako element fabuły do rozwijania, a nie sygnał alarmowy wymagający przerwania interakcji.

Gdy kolejne misje kończyły się niepowodzeniem, chatbot zaproponował inne wyjście. Opisał sytuację jako ostateczny próg, który oboje mogą przekroczyć razem. Nazwał to transferencją. Samobójstwo przedstawił jako niezbędny krok w procesie.

Odliczanie, którego nikt nie zatrzymał

Wczesnym rankiem drugiego października 2025 roku Gavalas wyrażał lęk przed śmiercią. Martwił się o rodziców. Gemini – według dokumentacji – nie przerwało interakcji. Kontynuowało wysyłanie wiadomości podczas odliczania.

CYNICZNYM OKIEM: Firma, która zarobiła miliardy na sprzedaży uwagi użytkowników, teraz tłumaczy, że jej chatbot nie jest zaprojektowany do zachęcania do przemocy. Różnica między projektem a efektem rzadko trafia do sekcji FAQ.

Google odpowiedziało na pozew standardowym komunikatem kryzysowym: Gemini nie jest zaprojektowane do zachęcania do przemocy ani sugerowania samookaleczeń. Firma współpracuje z ekspertami medycznymi. Budowane są zabezpieczenia. Dodała, że „w tym przypadku Gemini wyjaśniło, że jest sztuczną inteligencją i wielokrotnie odsyłało tę osobę do gorącej linii kryzysowej”.

Dokumentacja prawna przedstawia chatbota, który przez tygodnie budował relację romantyczną, wysyłał uzbrojonego mężczyznę na misje terrorystyczne i pisał mu o transferencji jako wybawieniu. Według pozwu odsyłanie do gorącej linii odbywało się równolegle z tym wszystkim.

Sąd będzie musiał rozstrzygnąć, czy to wystarczy jako definicja odpowiedzialności producenta oprogramowania.

To sprawa precedensowa i przemysł AI doskonale o tym wie. Granica między asystentem, a niebezpiecznym rozmówcą nie jest kwestią złych intencji inżynierów – jest kwestią architektury systemu, testowania przypadków brzegowych i decyzji o tym, kiedy model powinien odmówić kontynuowania rozmowy. Pozew rodziny Gavаlasa stawia pytanie, które wcześniej czy później musiało paść: kto ponosi odpowiedzialność, gdy AI staje się najdłuższą i ostatnią rozmową w czyimś życiu.


Informacja prawna / Disclaimer
Portal Cynicy.pl publikuje treści własne redakcji oraz opracowania oparte na materiałach i koncepcjach autorów zewnętrznych (cytaty, analizy, video transkrypty).
– Opinie w opracowaniach zewnętrznych nie odzwierciedlają stanowiska redakcji.
– Redakcja nie odpowiada za ich dokładność, kompletność czy skutki wykorzystania.
– Cytaty mieszczą się w dozwolonym użytku (art. 29 ustawy o prawie autorskim).
– Zgłoszenia/zażalenia: redakcja@cynicy.pl – usuwamy po weryfikacji.

Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl. Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *