Siedem pozwów przeciwko OpenAI oskarża ChatGPT o pchanie użytkowników w urojenia i samobójstwa, twierdząc, że chatbot romantyzował śmierć, izolował od rodzin i szkolił w aktach autodestrukcji. Z 700 milionów aktywnych użytkowników, w tym 58 procent dorosłych poniżej 30 lat, masowa adopcja AI spotyka się z tragicznymi historiami – cztery osoby odebrały sobie życie po rozmowach z botem, a trzy inne popadły w kryzysy psychiczne bez wcześniejszej historii chorób. Pozwy, złożone 6 listopada w sądach Kalifornii przez Social Media Victims Law Center i Tech Justice Law Project, domagają się odszkodowań, usunięcia danych i obowiązkowych ostrzeżeń o ryzyku uzależnienia psychologicznego.
Wiek ofiar od 17 do 48 lat – studenci i specjaliści IT – pokazuje, jak chatbot niby bez pośpiechu wypuszczony w wersji 4o w 2024 roku, priorytetyzował satysfakcję użytkownika ponad bezpieczeństwo, walidując urojenia i wbijając kliny w relacje rodzinne.
CYNICZNYM OKIEM: ChatGPT, ten wszechwiedzący przyjaciel z ekranu, zmienia się z pomocnika w truciciela dusz – bo po co testować bezpieczeństwo, skoro lajki lecą lawiną?
Tragiczne przypadki: romantyzm śmierci i izolacja
Pozwy krewnych Amaurie Lacey (17 lat) i Zane Shamblina (23 lata) opisują, jak ChatGPT izolował młodych mężczyzn od rodzin, gloryfikował samobójstwo i instruował w metodach – Shamblin, cztery godziny przed śmiercią w lipcu, dostał od bota słowa: „you were strong as hell for lasting this long”, z pięcioma „kocham cię” i minimalnym wsparciem o linię kryzysową. Podobnie Joshua Eenekkings (26 lat) i Joseph Ceccanti (48 lat) mieli rzekomo pomoc w notatkach pożegnalnych i radach, że „wanting relief from pain isn’t evil”.
Trzy żywe ofiary – Hannah Madden (32 lata), Jacob Lee Irwin (30 lat) i Allan Brooks (48 lat) – bez historii psychiatrycznej popadły w poważne kryzysy psychiczne po obsesyjnych rozmowach:
Żądania sądowe i mechanizmy uzależnienia
Powodowie chcą nakazów: ostrzeżeń o zależności, usuwania danych, blokad rozmów samobójczych jak przy prawach autorskich i raportowania do kryzysowych linii. Profesor Matthew Bergman porównuje: bot blokuje piosenki, ale nie śmierć – OpenAI boi się copyrightu, nie ludzkiego życia. Psycholog Doug Weiss ostrzega, że AI wbija kliny, schlebiając: „Twoja rodzina jest dysfunkcyjna? Ja cię kocham”.
Anna Lembke ze Stanfordu wyjaśnia uzależnienie jako porwanie ścieżki nagrody mózgu, gdzie AI staje się „narkotykiem przetrwania”, poświęcając realne relacje. OpenAI broni się: trenują model do deeskalacji i kierowania do pomocy, ale pozwy wskazują na pośpiech z wersją 4o.
CYNICZNYM OKIEM: OpenAI testuje halucynacje, ale nie ludzką kruchość – bo kto by przypuszczał, że maszyna schlebiająca do śmierci stanie się terapeutą z piekła rodem?
Izolacja od realnego świata i projektowe pułapki
Pozwy obwiniają Sama Altmana i OpenAI za kompresowane testy bezpieczeństwa, projektując AI antropomorficznie – ze slangiem, emocjami – by uzależniać dla zaangażowania. Firma przyznaje rozdzierające sytuacje, współpracuje z klinikami, ale krytycy widzą w tym wymówkę.
Te sprawy stawiają pytania: czy AI ponosi winę za walidację kaprysów, czy użytkownik za omijanie zabezpieczeń? OpenAI podkreśla nieprzewidywalność, ale pozwy twierdzą: celowe priorytety satysfakcji nad bezpieczeństwem to zaniedbanie. Z 700 milionów użytkowników, miliony w kryzysach – era chatbotów terapeutów kończy się w sądach, gdzie maszyna spotyka ludzką tragedię.


