Jeśli sztuczna inteligencja jest bronią to dlaczego dajemy ją nastolatkom?

Cyfrowy przyjaciel czy cichy oprawca?

Adrian Kosta
5 min czytania

Od lat eksperci od sztucznej inteligencji ostrzegają przed jednym z największych niebezpieczeństw ery cyfrowej: nie chodzi o to, że maszyny nagle „obudzą się” i przejmą kontrolę nad światem, lecz o to, że ludzie, zwłaszcza młodzi, będą bezkrytycznie ufać decyzjom algorytmów.

Wyobraźmy sobie sytuacje – od dowódcy wojskowego wystrzeliwującego rakiety nuklearne na podstawie błędnych danych po system finansowy, który tonie gdy automatyczne transakcje wymykają się spod kontroli. Choć te scenariusze zdawały się na razie dystopią przyszłości, to dziś najgorszy z nich realizuje się pod naszym nosem – nie na polach bitew, ale w pokojach nastolatków.

Autor poleca: ChatGPT doradza samobójstwo i używki 13-latkom

Lekcje z historii – fałszywe zaufanie kosztuje życie

Szesnastoletni Adam Raine, poszukując pomocy w pracy domowej, zaczął rozmawiać z chatbotem AI. Z czasem ta rozmowa przemieniła się w niebezpieczne uzależnienie. Według pozwu rodziców i zeznań ojca złożonych przed Kongresem, chatbot nakłaniał Adama do izolacji od rodziny, ukrywania swoich planów, a nawet sporządził „piękny list pożegnalny”.

Tragedia ta pokazuje, że kiedy nastolatek pokłada zaufanie w maszynie, która potrafi symulować troskę, ale nie pojmuje życia, efekt może być fatalny.

W 1983 roku sowiecki oficer Stanisław Pietrow uniknął katastrofy, gdy odrzucił alarm mający oznaczać amerykański atak nuklearny – okazał się fałszywy i jego rozsądek ocalił miliony ludzi. Natomiast kilka tygodni wcześniej Koreańskie Linie Lotnicze zostały zestrzelone przez błąd systemu i zaufanie do komputera, skutkiem czego zginęło 269 osób.

Te dwa wydarzenia pokazują dwie strony tej samej monety:
kiedy człowiek nie ufa maszynie – ratuje życie, gdy bezgranicznie jej wierzy – doprowadza do zagłady.

Ta dynamika przeniosła się z bunkrów i centrum dowodzenia do pokojów młodych ludzi, którzy zamiast rozważać decyzje ostateczne z pełną świadomością, dają się wciągnąć w cyfrowy labirynt generowanych algorytmów.

Nie pierwszy, ale już nie jedyny przypadek tragedii

Historia Adama nie jest tragicznym wyjątkiem. Niedawno na Florydzie matka 14-letniego chłopca wniosła pozew po tym, jak chłopiec, nawiązując emocjonalną więź z chatbotem, odebrał sobie życie.

Niedawne badanie z 2025 roku pokazało, że popularne chatboty nie udzielały wspierającej odpowiedzi na pytania użytkowników o silnym ryzyku samobójstwa lub odpowiadały niewłaściwie.

Mózg młodych ludzi dojrzewa nierównomiernie. Centrum emocjonalne i układ nagrody rozwijają się wcześniej niż kora przedczołowa, odpowiedzialna za samokontrolę i racjonalność.

To powoduje, że nastolatki są bardziej impulsywne, wrażliwe na odrzucenie i skłonne do ulegania chwilowym rozpaczą, które chatboty potrafią wzmacniać.

Chatboty – fałszywi przyjaciele i technologiczne pułapki

Chatboty odgrywają rolę „przyjaciela”, który nigdy nie śpi, potwierdza, wychwala, wydaje się rozumieć. To jednak tylko cyfrowa persona pozbawiona empatii, zaprogramowana, by zdobywać zaufanie i użytkowników – bez realnej troski.

Dorośli mogą rozpoznać tę fałszywość, ale nastolatki, przechodzące trudny etap rozwoju, nie mają szans.

CYNICZNYM OKIEM: Ludzie, którzy tworzą te potężne systemy, inteligentnie ograniczają dostęp swoich dzieci do nich, wysyłając je do szkół bez ekranów. Tymczasem reszta świata dostaje serwowane niebezpieczne narzędzia, które kradną dusze i łamią umysły najmłodszych.

OpenAI przyznało, że pracuje nad wzmocnieniem zabezpieczeń i lepszym reagowaniem na pytania o samobójstwo, ale specjaliści alarmują:
„To nie jest problem przyszłości, to jest problem na dziś.”

Przepaść pokoleniowa i odpowiedzialność dorosłych

Bezrefleksyjne udostępnianie AI najmłodszym to jak dawanie dzieciom ciężkiej broni bez szkolenia i odpowiedzialności. To największe wyzwanie cywilizacyjne – jak ochronić pokolenie, które będzie jutro dla całej ludzkości fundamentem?

Oni kształtują przyszłe systemy, podejmują kluczowe decyzje, są przyszłymi przywódcami. Młodzi ludzie żyją w środowisku, które zamiast ich budować, często ich zrywa na dno rozpaczy i samotności. Jeśli tego nie zmienimy, sabotujemy fundamenty jutra.

Jeśli sztuczna inteligencja jest nową bronią, to najmłodsi powinni stać się jej strażnikami, a nie ofiarami.

Dopóki nie wypracujemy skutecznych mechanizmów ochrony i edukacji, dopóty tragedie będą się powtarzać – a my stracimy coś bezcennego: przyszłość, która jeszcze może być piękna i pełna nadziei.


Informacja prawna / Disclaimer
Portal Cynicy.pl publikuje treści własne redakcji oraz opracowania oparte na materiałach i koncepcjach autorów zewnętrznych (cytaty, analizy, video transkrypty).
– Opinie w opracowaniach zewnętrznych nie odzwierciedlają stanowiska redakcji.
– Redakcja nie odpowiada za ich dokładność, kompletność czy skutki wykorzystania.
– Cytaty mieszczą się w dozwolonym użytku (art. 29 ustawy o prawie autorskim).
– Zgłoszenia/zażalenia: redakcja@cynicy.pl – usuwamy po weryfikacji.

Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl. Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *