ChatGPT wiedział o mordercy. Szokujące dane na miesiące przed tragedią

Miał opisywać scenariusze strzelanin, analizować ich przebieg i „symulować” reakcje służb

Adrian Kosta
5 min czytania

Tragedia w kanadyjskim miasteczku, gdzie osiemnastoletni Jesse Van Rootselaar w lutym 2026 roku zamordował osiem osób, w tym swoją matkę, przyrodniego brata i pięciu uczniów szkoły średniej, ma wymiar znacznie szerszy niż kolejny dramat szkolnej przemocy.

To także historia technologicznego ostrzeżenia, które nikt nie odważył się wysłać.

Już siedem miesięcy wcześniej, w czerwcu 2025 roku, wewnętrzne systemy bezpieczeństwa OpenAI wychwyciły jego rozmowy z chatbotem ChatGPT jako „niepokojące”. Van Rootselaar miał szczegółowo opisywać scenariusze strzelanin, analizować ich przebieg i „symulować” reakcje służb. Wewnętrzna debata w firmie trwała kilka dni: część pracowników wzywała, by zawiadomić policję, inni twierdzili, że nie ma mowy o „bezpośrednim i wiarygodnym zagrożeniu”. Zadecydowano o kompromisie – zbanowano konto użytkownika, nie informując służb.

Siedem miesięcy później padły strzały.

kanada
Van Rootselaar na strzelnicy: Opisał ten post w mediach społecznościowych słowami: „Wysadziłem ich Desert Eagle!”.

CYNICZNYM OKIEM: Sztuczna inteligencja potrafi dziś przewidzieć wojnę, ale nie wolno jej ostrzec o mordercy – bo to narusza prywatność.

Sygnały ostrzegawcze, których nikt nie chciał widzieć

Po masakrze pracownicy OpenAI przekazali informacje Royal Canadian Mounted Police, przyznając, że kontakt z organami ścigania nastąpił dopiero po fakcie. Jak ustalono, Van Rootselaar już wcześniej budził niepokój policji: w jego domu kilkukrotnie interweniowano z powodu zaburzeń psychicznych, a broń była czasowo konfiskowana.

Jednocześnie jego aktywność online była mozaiką ostrzeżeń, których żaden system nie potrafił lub nie chciał połączyć. Na platformie Roblox tworzył grę symulującą atak w centrum handlowym. Na Reddicie publikował o depresji, ADHD, autyzmie i stosowaniu leków psychotropowych. Pisał o swoich „siedmiu sztukach” broni palnej i „prawie do bycia sobą” jako transpłciowy nastolatek.

OpenAI nie znało zapewne tych fragmentów układanki, ale znało wystarczająco dużo, by wiedzieć, że ma do czynienia z czymś więcej niż makabryczną fantazją. Mimo to uznano, że nie można przekroczyć granicy prywatności użytkownika, nawet gdy granicą jest życie innych.

Sprawa Van Rootselaara to czarne lustro ery sztucznej inteligencji. Systemy zdolne interpretować język naturalny, rozpoznawać emocje i przewidywać zachowania zostały zaprojektowane, by wspierać ludzi – a nie by podejmować za nich decyzje etyczne. Kiedy więc maszyna rozumie, że ktoś planuje zabijać, ale człowiek nie ma odwagi zareagować, wina rozkłada się równo.

OpenAI nie złamało prawa, zachowało zgodność z regulaminem i moralnym paraliżem współczesności. W świecie, w którym każde działanie może zostać uznane za nadużycie danych, nikt nie chce być oskarżony o ratowanie życia w niewłaściwy sposób.

CYNICZNYM OKIEM: Przepisy o ochronie prywatności stają się tarczą nie dla obywateli, lecz dla urzeczywistnionego absurdu.

Historia młodego człowieka, którego system nie umiał utrzymać przy życiu

Van Rootselaar był przykładem dziecka epoki cyfrowej – samotnego, zagubionego, odurzonego wirtualnymi tożsamościami. Od około dwunastego roku życia identyfikował się jako transpłciowa dziewczyna. Internet dawał mu akceptację, jakiej nie znalazł w prawdziwym świecie. W sieci publikował zdjęcia w żeńskim stroju i żalił się, że ma „zbyt męską sylwetkę, by być uroczą kobietą”.

Nie wiemy, czy kiedykolwiek rozpoczął terapię hormonalną, ale wiemy, że żył w świecie niekończącej się autodiagnozy: depresja, OCD, autyzm, ADHD – wszystko z etykietą i receptą. Do tego fascynacja substancjami psychoaktywnymi, w tym 5-MeO-DMT, popularnym halucynogenem zwanym „jad żaby”.

W tej plątaninie emocji, chemii i sieciowych fantazji nikt nie zdołał wychwycić, że w środku dojrzewa katastrofa. Ani policja, ani system zdrowia psychicznego, ani nawet zaawansowana sztuczna inteligencja.

Granice odpowiedzialności

Po tej tragedii znów powróci pytanie: czy firmy technologiczne mają obowiązek ostrzegać o możliwych przestępstwach, które odkrywają ich algorytmy? I czy w świecie, gdzie każdy komunikat jest prywatny, da się stworzyć moralną sztuczną inteligencję, zdolną odróżnić fantazję od zagrożenia?

W praktyce każde rozwiązanie będzie budzić sprzeciw. Zgłoszenie wywoła oskarżenia o nadzór i cenzurę. Zaniechanie – o współudział w tragedii. W efekcie firmy będą wolały nic nie robić: najbezpieczniej milczeć, dopóki nie ma trupów.

CYNICZNYM OKIEM: Inteligencja sztuczna ma jeden ludzki odruch – strach przed odpowiedzialnością.

Historia Van Rootselaara to nie opowieść o błędzie algorytmu, lecz o społeczeństwie, które oddało technice moralny kompas i zdziwiło się, że wskazuje on w próżnię. To także przypomnienie, że nawet najbardziej zaawansowany system nie zastąpi odwagi do działania – dziwnie deficytowej w epoce, która gromadzi wszystko, oprócz empatii.

Można było tę tragedię przewidzieć. Można było ją zatrzymać. Ale trzeba by najpierw przyznać, że między prywatnością a życiem istnieje granica, którą czasem jednak warto przekroczyć.


Informacja prawna / Disclaimer
Portal Cynicy.pl publikuje treści własne redakcji oraz opracowania oparte na materiałach i koncepcjach autorów zewnętrznych (cytaty, analizy, video transkrypty).
– Opinie w opracowaniach zewnętrznych nie odzwierciedlają stanowiska redakcji.
– Redakcja nie odpowiada za ich dokładność, kompletność czy skutki wykorzystania.
– Cytaty mieszczą się w dozwolonym użytku (art. 29 ustawy o prawie autorskim).
– Zgłoszenia/zażalenia: redakcja@cynicy.pl – usuwamy po weryfikacji.

Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl. Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *