Wideo, na którym słoń kopie krokodyla na wysokość trzeciego piętra, animowany Jezus walczący z Grinchem i głos polityka wypowiadający słowa, których nigdy nie powiedział – generatywna sztuczna inteligencja zalała internet. Według badań firmy Kapwing, co piąte krótkie wideo na YouTube nosi ślady treści w całości wygenerowanych przez AI. To cyfrowy ferment, który nie tylko rozmywa granicę między rzeczywistością, a fikcją, ale też powoli kształtuje nową, bezrefleksyjną kulturę widza.
CYNICZNYM OKIEM: Nie trzeba czipów w mózgu, by ogłupić ludzkość – wystarczy krótki filmik, którego nie da się odróżnić od żartu lub halucynacji.
Od mema do „AI slop” – narodziny cyfrowego śmieciowiska
Zjawisko określane mianem „brainrot” – dosłownie „gnicia mózgu” – istniało długo przed erą sztucznej inteligencji. To wszystkie te drobne, bezsensowne, ale uzależniające treści: zwierzęta w zabawnych sytuacjach, groteskowe skecze, memy bez pointy.
Sztuczna inteligencja nadała temu nową skalę i nazwę: „AI slop” – cyfrową papkę produkowaną masowo i bez udziału człowieka. Jak piszą badacze z Kapwing, chodzi o „niechlujne, bezrefleksyjne treści generowane przez algorytmy wyłącznie po to, by farmić kliknięcia, subskrypcje i wpływać na opinie polityczne.”
Analiza 500 filmików wykazała, że 33% treści stanowiło czysty „brainrot.” Wśród nich coraz większy udział miały nagrania wykonane w całości przez generatywne programy – od Sory i Groka po Midjourney i Runway.
Technologia zniosła wszystkie bariery wejścia: kanał może publikować dziesiątki filmów dziennie, niezależnie od jakości. Algorytmy rekomendacji same zadbają, by widz utknął w ich pętli.
Małpy, potwory i cud Boży ze sztucznej inteligencji
Przykłady stają się coraz bardziej absurdalne. Kanał „Bandar Apna Dost” z Indii publikuje „realistyczne” historie o małpie przeżywającej dramaty i romanse. Wszystko – od muzyki po mimikę – stworzono przez AI. Mimo to (a może właśnie dlatego) kanał generuje miliony dolarów z reklam rocznie.

Podobnie hiszpański „Imperio de Jesús” – którego animowany Jezus co tydzień toczy walki z Saturnem, Grinchem lub Lucyferem. Odbiorcy nie oczekują logiki – chodzi o szok, groteskę i absurd, które łatwo zapadają w pamięć.

Wersje bardziej realistyczne bywają jeszcze groźniejsze. Wideo, w którym słoń „ratuje” drugiego przed krokodylem, wygląda jak dokument, dopóki jedno ze zwierząt nie złamie praw fizyki kopnięciem na 30 metrów. Na ósmiosekundowym klipie jedyny ślad AI – znak wodny Sory – widać przez trzy sekundy na jednym kadrze. Reszta wygląda jak rzeczywistość.
CYNICZNYM OKIEM: Kiedy sztuczna inteligencja zaczyna łamać prawa natury, a my zamiast wątpić – lajkujemy, to znaczy, że ewolucja zrobiła błąd.
Algo‑ekonomia nudy. Fake news w wersji 2.0
Eksperci tłumaczą popularność „AI slop” prostym mechanizmem. To dopamina bez wysiłku intelektualnego. Treść, która nie wymaga kontekstu, języka ani zrozumienia, działa jak słodki fast food – syci natychmiast, ale zostawia pustkę.
– „To zjawisko nie jest powodem do dumy cywilizacji” – mówi Jeff Burningham, autor książki „The Last Book Written by a Human.” – „Żeruje na naszych pierwotnych odruchach. To dopamina zamiast rozeznania, zaangażowanie zamiast refleksji.”
Problem nie leży tylko w jakości treści, ale w szybkości, z jaką zanika zdolność rozróżniania prawdy od symulacji. Organizacja AARP ostrzegła niedawno, że „AI slop” sprawia, iż starsi użytkownicy nie są w stanie odróżnić realnych wydarzeń od fikcyjnych.
Zagęszczenie fałszywych obrazów i dźwięków nie jest już marginalne. AI generuje setki tysięcy „deepfake’ów”: polityków, celebrytów, a nawet zmarłych postaci. Twórcy aplikacji OpenAI zablokowali możliwość wykorzystywania wizerunku Martina Luthera Kinga w wersji animowanej po fala krytyki.
Jednak problem sięga głębiej. Brennan Center for Justice ostrzega, że podobne treści mogą destabilizować wybory. Z kolei naukowcy z National Library of Medicine odkryli, że ponad 5% filmów edukacyjnych z biologii i medycyny to nagrania stworzone przez AI, często zawierające błędy i uproszczenia.
Krótko mówiąc – nie chodzi już tylko o śmieszne filmy, ale o zanieczyszczony ekosystem informacji.
CYNICZNYM OKIEM: Kiedy nawet nauka ma watermark Sory, trudno się dziwić, że społeczeństwo traci rozum – w końcu uczy się z deepfake’ów.
Wyniki eksperymentu: 88% śmieci, 8% iluzji
Dziennikarze przeprowadzili własny test: otworzyli nowe konto na YouTube, bez historii wyszukiwań.
Z pierwszych 300 filmów krótkich aż 88% miało charakter „brainrot” – losowe żarty, skecze, memy, psy w garniturach. 8% wyglądało na wygenerowane przez AI, często z błędami ruchu, dziwnymi dźwiękami lub powtarzalnymi schematami narracyjnymi.
Niektóre filmiki pokazywały świadome próby ukrywania użycia AI przed systemem – twórcy usuwali znaki wodne, manipulowali dźwiękiem, podmieniali metadane.
To dowód, że „AI slop” nie jest jeszcze dominujące, ale zbliża się – i że twórcy uczą się, jak oszukać algorytmy rozpoznawcze szybciej, niż platformy zdążą je aktualizować.
Kiedy znika uwaga, znika sens
Eksperci nie mają złudzeń: technologia generatywna sama w sobie nie jest złem, to raczej lustro pokazujące poziom zmęczenia i rozproszenia współczesnego człowieka. Jak tłumaczy Burningham: „AI jest kosmicznym lustrem – odbija naszą uwagę, albo jej brak. Gdy ta się rozpada, razem z nią znika mądrość, pamięć i znaczenie.”
Zamiast pohukiwać o apokalipsie, badacze proponują prostą diagnozę: AI nie zabije ludzkości, tylko jej skupienie.
„AI brainrot” to nie tylko obyczajowy fenomen, ale nowy etap wojny o uwagę. YouTube, TikTok czy Instagram nie potrzebują już ludzi, by tworzyć treści – wystarczy algorytm, który zna nasze słabości.
To jednak daje także drugą szansę: jeśli technologia jest lustrem, to każdy widz może w nim zobaczyć, jak bardzo się zatracił w bezmyślnym przewijaniu. I może jeszcze odwrócić wzrok.
Bo jak dotąd, najbardziej przerażającym deepfakiem internetu nie jest wirtualny polityk ani sfingowane nagranie wojny – jest nim człowiek udający, że wciąż ma kontrolę nad własną uwagą.


