Sztuczna inteligencja zatruwa internet. Już 1 na 5 filmów to śmieć

To lustro pokazujące poziom zmęczenia i rozproszenia współczesnego człowieka

Adrian Kosta
7 min czytania

Wideo, na którym słoń kopie krokodyla na wysokość trzeciego piętra, animowany Jezus walczący z Grinchem i głos polityka wypowiadający słowa, których nigdy nie powiedział – generatywna sztuczna inteligencja zalała internet. Według badań firmy Kapwing, co piąte krótkie wideo na YouTube nosi ślady treści w całości wygenerowanych przez AI. To cyfrowy ferment, który nie tylko rozmywa granicę między rzeczywistością, a fikcją, ale też powoli kształtuje nową, bezrefleksyjną kulturę widza.

CYNICZNYM OKIEM: Nie trzeba czipów w mózgu, by ogłupić ludzkość – wystarczy krótki filmik, którego nie da się odróżnić od żartu lub halucynacji.

Od mema do „AI slop” – narodziny cyfrowego śmieciowiska

Zjawisko określane mianem „brainrot” – dosłownie „gnicia mózgu” – istniało długo przed erą sztucznej inteligencji. To wszystkie te drobne, bezsensowne, ale uzależniające treści: zwierzęta w zabawnych sytuacjach, groteskowe skecze, memy bez pointy.

Sztuczna inteligencja nadała temu nową skalę i nazwę: AI slop” – cyfrową papkę produkowaną masowo i bez udziału człowieka. Jak piszą badacze z Kapwing, chodzi o „niechlujne, bezrefleksyjne treści generowane przez algorytmy wyłącznie po to, by farmić kliknięcia, subskrypcje i wpływać na opinie polityczne.”

Analiza 500 filmików wykazała, że 33% treści stanowiło czysty „brainrot.” Wśród nich coraz większy udział miały nagrania wykonane w całości przez generatywne programy – od Sory i Groka po Midjourney i Runway.

Technologia zniosła wszystkie bariery wejścia: kanał może publikować dziesiątki filmów dziennie, niezależnie od jakości. Algorytmy rekomendacji same zadbają, by widz utknął w ich pętli.

Małpy, potwory i cud Boży ze sztucznej inteligencji

Przykłady stają się coraz bardziej absurdalne. Kanał „Bandar Apna Dost” z Indii publikuje „realistyczne” historie o małpie przeżywającej dramaty i romanse. Wszystko – od muzyki po mimikę – stworzono przez AI. Mimo to (a może właśnie dlatego) kanał generuje miliony dolarów z reklam rocznie.

ai (5)

Podobnie hiszpański „Imperio de Jesús” – którego animowany Jezus co tydzień toczy walki z Saturnem, Grinchem lub Lucyferem. Odbiorcy nie oczekują logiki – chodzi o szok, groteskę i absurd, które łatwo zapadają w pamięć.

ai (6)

Wersje bardziej realistyczne bywają jeszcze groźniejsze. Wideo, w którym słoń „ratuje” drugiego przed krokodylem, wygląda jak dokument, dopóki jedno ze zwierząt nie złamie praw fizyki kopnięciem na 30 metrów. Na ósmiosekundowym klipie jedyny ślad AI – znak wodny Sory – widać przez trzy sekundy na jednym kadrze. Reszta wygląda jak rzeczywistość.

CYNICZNYM OKIEM: Kiedy sztuczna inteligencja zaczyna łamać prawa natury, a my zamiast wątpić – lajkujemy, to znaczy, że ewolucja zrobiła błąd.

Algo‑ekonomia nudy. Fake news w wersji 2.0

Eksperci tłumaczą popularność „AI slop” prostym mechanizmem. To dopamina bez wysiłku intelektualnego. Treść, która nie wymaga kontekstu, języka ani zrozumienia, działa jak słodki fast food – syci natychmiast, ale zostawia pustkę.

„To zjawisko nie jest powodem do dumy cywilizacji” – mówi Jeff Burningham, autor książki „The Last Book Written by a Human.”„Żeruje na naszych pierwotnych odruchach. To dopamina zamiast rozeznania, zaangażowanie zamiast refleksji.”

Problem nie leży tylko w jakości treści, ale w szybkości, z jaką zanika zdolność rozróżniania prawdy od symulacji. Organizacja AARP ostrzegła niedawno, że „AI slop” sprawia, iż starsi użytkownicy nie są w stanie odróżnić realnych wydarzeń od fikcyjnych.

Zagęszczenie fałszywych obrazów i dźwięków nie jest już marginalne. AI generuje setki tysięcy „deepfake’ów”: polityków, celebrytów, a nawet zmarłych postaci. Twórcy aplikacji OpenAI zablokowali możliwość wykorzystywania wizerunku Martina Luthera Kinga w wersji animowanej po fala krytyki.

Jednak problem sięga głębiej. Brennan Center for Justice ostrzega, że podobne treści mogą destabilizować wybory. Z kolei naukowcy z National Library of Medicine odkryli, że ponad 5% filmów edukacyjnych z biologii i medycyny to nagrania stworzone przez AI, często zawierające błędy i uproszczenia.

Krótko mówiąc – nie chodzi już tylko o śmieszne filmy, ale o zanieczyszczony ekosystem informacji.

CYNICZNYM OKIEM: Kiedy nawet nauka ma watermark Sory, trudno się dziwić, że społeczeństwo traci rozum – w końcu uczy się z deepfake’ów.

Wyniki eksperymentu: 88% śmieci, 8% iluzji

Dziennikarze przeprowadzili własny test: otworzyli nowe konto na YouTube, bez historii wyszukiwań.

Z pierwszych 300 filmów krótkich aż 88% miało charakter „brainrot” – losowe żarty, skecze, memy, psy w garniturach. 8% wyglądało na wygenerowane przez AI, często z błędami ruchu, dziwnymi dźwiękami lub powtarzalnymi schematami narracyjnymi.

Niektóre filmiki pokazywały świadome próby ukrywania użycia AI przed systemem – twórcy usuwali znaki wodne, manipulowali dźwiękiem, podmieniali metadane.

To dowód, że „AI slop” nie jest jeszcze dominujące, ale zbliża się – i że twórcy uczą się, jak oszukać algorytmy rozpoznawcze szybciej, niż platformy zdążą je aktualizować.

Kiedy znika uwaga, znika sens

Eksperci nie mają złudzeń: technologia generatywna sama w sobie nie jest złem, to raczej lustro pokazujące poziom zmęczenia i rozproszenia współczesnego człowieka. Jak tłumaczy Burningham: „AI jest kosmicznym lustrem – odbija naszą uwagę, albo jej brak. Gdy ta się rozpada, razem z nią znika mądrość, pamięć i znaczenie.”

Zamiast pohukiwać o apokalipsie, badacze proponują prostą diagnozę: AI nie zabije ludzkości, tylko jej skupienie.

„AI brainrot” to nie tylko obyczajowy fenomen, ale nowy etap wojny o uwagę. YouTube, TikTok czy Instagram nie potrzebują już ludzi, by tworzyć treści – wystarczy algorytm, który zna nasze słabości.

To jednak daje także drugą szansę: jeśli technologia jest lustrem, to każdy widz może w nim zobaczyć, jak bardzo się zatracił w bezmyślnym przewijaniu. I może jeszcze odwrócić wzrok.

Bo jak dotąd, najbardziej przerażającym deepfakiem internetu nie jest wirtualny polityk ani sfingowane nagranie wojny – jest nim człowiek udający, że wciąż ma kontrolę nad własną uwagą.


Informacja prawna / Disclaimer
Portal Cynicy.pl publikuje treści własne redakcji oraz opracowania oparte na materiałach i koncepcjach autorów zewnętrznych (cytaty, analizy, video transkrypty).
– Opinie w opracowaniach zewnętrznych nie odzwierciedlają stanowiska redakcji.
– Redakcja nie odpowiada za ich dokładność, kompletność czy skutki wykorzystania.
– Cytaty mieszczą się w dozwolonym użytku (art. 29 ustawy o prawie autorskim).
– Zgłoszenia/zażalenia: redakcja@cynicy.pl – usuwamy po weryfikacji.

Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl. Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *