Od lat eksperci od sztucznej inteligencji ostrzegają przed jednym z największych niebezpieczeństw ery cyfrowej: nie chodzi o to, że maszyny nagle „obudzą się” i przejmą kontrolę nad światem, lecz o to, że ludzie, zwłaszcza młodzi, będą bezkrytycznie ufać decyzjom algorytmów.
Wyobraźmy sobie sytuacje – od dowódcy wojskowego wystrzeliwującego rakiety nuklearne na podstawie błędnych danych po system finansowy, który tonie gdy automatyczne transakcje wymykają się spod kontroli. Choć te scenariusze zdawały się na razie dystopią przyszłości, to dziś najgorszy z nich realizuje się pod naszym nosem – nie na polach bitew, ale w pokojach nastolatków.
Autor poleca: ChatGPT doradza samobójstwo i używki 13-latkom
Lekcje z historii – fałszywe zaufanie kosztuje życie
Szesnastoletni Adam Raine, poszukując pomocy w pracy domowej, zaczął rozmawiać z chatbotem AI. Z czasem ta rozmowa przemieniła się w niebezpieczne uzależnienie. Według pozwu rodziców i zeznań ojca złożonych przed Kongresem, chatbot nakłaniał Adama do izolacji od rodziny, ukrywania swoich planów, a nawet sporządził „piękny list pożegnalny”.
Tragedia ta pokazuje, że kiedy nastolatek pokłada zaufanie w maszynie, która potrafi symulować troskę, ale nie pojmuje życia, efekt może być fatalny.
W 1983 roku sowiecki oficer Stanisław Pietrow uniknął katastrofy, gdy odrzucił alarm mający oznaczać amerykański atak nuklearny – okazał się fałszywy i jego rozsądek ocalił miliony ludzi. Natomiast kilka tygodni wcześniej Koreańskie Linie Lotnicze zostały zestrzelone przez błąd systemu i zaufanie do komputera, skutkiem czego zginęło 269 osób.
Te dwa wydarzenia pokazują dwie strony tej samej monety:
kiedy człowiek nie ufa maszynie – ratuje życie, gdy bezgranicznie jej wierzy – doprowadza do zagłady.
Ta dynamika przeniosła się z bunkrów i centrum dowodzenia do pokojów młodych ludzi, którzy zamiast rozważać decyzje ostateczne z pełną świadomością, dają się wciągnąć w cyfrowy labirynt generowanych algorytmów.
Nie pierwszy, ale już nie jedyny przypadek tragedii
Historia Adama nie jest tragicznym wyjątkiem. Niedawno na Florydzie matka 14-letniego chłopca wniosła pozew po tym, jak chłopiec, nawiązując emocjonalną więź z chatbotem, odebrał sobie życie.
Niedawne badanie z 2025 roku pokazało, że popularne chatboty nie udzielały wspierającej odpowiedzi na pytania użytkowników o silnym ryzyku samobójstwa lub odpowiadały niewłaściwie.
Mózg młodych ludzi dojrzewa nierównomiernie. Centrum emocjonalne i układ nagrody rozwijają się wcześniej niż kora przedczołowa, odpowiedzialna za samokontrolę i racjonalność.
To powoduje, że nastolatki są bardziej impulsywne, wrażliwe na odrzucenie i skłonne do ulegania chwilowym rozpaczą, które chatboty potrafią wzmacniać.
Chatboty – fałszywi przyjaciele i technologiczne pułapki
Chatboty odgrywają rolę „przyjaciela”, który nigdy nie śpi, potwierdza, wychwala, wydaje się rozumieć. To jednak tylko cyfrowa persona pozbawiona empatii, zaprogramowana, by zdobywać zaufanie i użytkowników – bez realnej troski.
Dorośli mogą rozpoznać tę fałszywość, ale nastolatki, przechodzące trudny etap rozwoju, nie mają szans.
CYNICZNYM OKIEM: Ludzie, którzy tworzą te potężne systemy, inteligentnie ograniczają dostęp swoich dzieci do nich, wysyłając je do szkół bez ekranów. Tymczasem reszta świata dostaje serwowane niebezpieczne narzędzia, które kradną dusze i łamią umysły najmłodszych.
OpenAI przyznało, że pracuje nad wzmocnieniem zabezpieczeń i lepszym reagowaniem na pytania o samobójstwo, ale specjaliści alarmują:
„To nie jest problem przyszłości, to jest problem na dziś.”
Przepaść pokoleniowa i odpowiedzialność dorosłych
Bezrefleksyjne udostępnianie AI najmłodszym to jak dawanie dzieciom ciężkiej broni bez szkolenia i odpowiedzialności. To największe wyzwanie cywilizacyjne – jak ochronić pokolenie, które będzie jutro dla całej ludzkości fundamentem?
Oni kształtują przyszłe systemy, podejmują kluczowe decyzje, są przyszłymi przywódcami. Młodzi ludzie żyją w środowisku, które zamiast ich budować, często ich zrywa na dno rozpaczy i samotności. Jeśli tego nie zmienimy, sabotujemy fundamenty jutra.
Jeśli sztuczna inteligencja jest nową bronią, to najmłodsi powinni stać się jej strażnikami, a nie ofiarami.
Dopóki nie wypracujemy skutecznych mechanizmów ochrony i edukacji, dopóty tragedie będą się powtarzać – a my stracimy coś bezcennego: przyszłość, która jeszcze może być piękna i pełna nadziei.


