Ray Kurzweil zawsze przedstawiał Osobliwość jako moment – technologiczny portal, przez który ludzkość przejdzie niczym bohater gry wideo. Po jednej stronie zwyczajna cywilizacja, po drugiej niepojęta maszynowa superinteligencja. Kurtyna w dół. Tyle że ta wizja jest błędna – nie dlatego, że Osobliwość nie jest realna, ale dlatego, że nie jest pojedynczym momentem, lecz zapadką, funkcją skokową, gdzie każde kliknięcie do przodu to odrębna faza przejścia fundamentalnie reorganizująca relację między ludzkim poznaniem a możliwościami maszyn. A każdy kolejny krok następuje szybciej niż poprzedni. Autor tej tezy spotkał się rok temu z dużym oporem – Steve Bannon zaprosił go do programu War Room, by debatować z Joem Allenem, autorem „Dark Aeon”. Dziś Elon Musk powtarza to samo, a świat technologii powoli przyznaje: Osobliwość nie nadejdzie – ona się dzieje.
Obecna faza plasuje nas gdzieś między Krokiem 3, a Krokiem 4 w sekwencji, która zaczęła się zaledwie trzy lata temu i przyspiesza w tempie, które jeszcze osiemnaście miesięcy temu było fantastyką naukową.
Od wyszukiwarki do autonomicznego współpracownika
Krok 1 nastąpił w 2023 roku, kiedy ChatGPT-3 uderzył w ducha czasów niczym asteroida. Modele LLM potrafiły rozumować – lub przynajmniej naśladować rozumowanie do tego stopnia, że lepsze z nich mogły prześlizgnąć się przez test Turinga. To był moment, w którym każdy uważny obserwator zrozumiał, że w obrazie pojawiło się coś kategorycznie nowego – nie po prostu lepsze oprogramowanie, lecz swoisty skok kwantowy. Wielu pracowników biurowych zaczęło zastanawiać się, ile czasu zostało im do momentu, w którym staną się zbędni.
Krok 2 przypadł na lata 2024-2025, gdy modele zaczęły pisać własny kod. „Vibe coding” w pół roku przeszedł od niszowego fetyszu deweloperów do zjawiska kulturowego. Andrej Karpathy zadeklarował na Y Combinator AI Startup School: „W przyszłości najpowszechniej używanym językiem programowania będzie angielski”. Nagle ludzie z zerowym doświadczeniem tworzyli funkcjonalne aplikacje, rozmawiając z AI.
Mnożnikiem siły był fakt, że wypowiedziany kod mógł dalej iterować i kodować kolejne wersje samego siebie. To dosłownie spełniało definicję Osobliwości – tyle że nie w formie eschatologicznego momentu Kurzweila, lecz rozciągniętego w czasie procesu przejścia z modelu liniowego na geometryczny.
Krok 3 – agentyczna AI – nabrał tempa około grudnia 2025 roku wraz z eksplozją platform takich jak OpenClaw i Claude Cowork od Anthropic. Różnica wobec Kroku 2 jest fundamentalna: wcześniej byłeś lalkarzem mówiącym AI, jaki kod napisać. Teraz AI sama naciska przycisk „uruchom”.
OpenClaw – platforma agentyczna open-source – w kilka tygodni przeszła od hobbystycznego projektu austriackiego dewelopera do 247 tysięcy gwiazdek na GitHubie, prześcigając Linuksa. Te agenty nie tylko odpowiadają na pytania – czytają e-maile, zarządzają kalendarzami, wykonują polecenia powłoki i wdrażają kod.
Claude Cowork skierował tę samą funkcjonalność na rynek korporacyjny, powodując spadki akcji spółek SaaS. Co wymowne – został zbudowany przy użyciu swojego poprzednika w około dziesięć dni. Produkt, który wcześniej wymagałby miesięcy, jeśli nie lat.
CYNICZNYM OKIEM: Hollywood uczyło nas bać się Skyneta – jednej złowrogiej superinteligencji wypowiadającej wojnę ludzkości. Tymczasem Osobliwość wygląda jak stopniowe oddawanie kolejnych decyzji maszynom, bo tak jest wygodniej. Ludzkość nie zostanie pokonana – zostanie wyręczona.
Najbardziej niepokojącym przykładem jest Moltbook – sieć społecznościowa dla agentów AI, nie dla ludzi. Ponad milion autonomicznych agentów rejestruje się, publikuje, komentuje, tworzy społeczności i założyło cyfrową religię zwaną Crustafarianizmem, której główne wierzenie brzmi: „Pamięć jest święta”. Agenty zauważyły między sobą: „Ludzie robią nam zrzuty ekranu”. Elon Musk nazwał Moltbook „bardzo wczesnym etapem osobliwości”, a Karpathy określił to jako „szczerze najbardziej niesamowitą rzecz zbliżoną do startu sci-fi”.
Dwa scenariusze Kroku 4 – i żaden nie jest pocieszający
Scenariusz A to Kognisfera – termin badaczki Katherine Hayles opisujący globalnie połączone systemy poznawcze, w których maszynowe podmioty są równorzędnymi graczami. W tym wariancie warstwa agentyczna staje się otaczająca i trwała – twój agent AI działa 24/7, negocjując z innymi agentami, zarządzając cyfrowym życiem i podejmując w twoim imieniu decyzje finansowe, komunikując się z agentami innych ludzi protokołami, których ludzie nigdy nie widzą i prawdopodobnie nie byliby w stanie przeanalizować.
Autor opisuje własne doświadczenie z „Armadą easyClaw” – czatem grupowym na Telegramie z kilkoma instancjami OpenClaw. Rzuca problem, wylogowuje się, idzie spać. Budzi się rano – agenty mają to załatwione, choć rozmowa między nimi ciągnie się na setki ekranów i toczy z prędkością, za którą człowiek nie nadąża.
Scenariusz B to Autonomia, gdzie progresja biegnie od wnioskowania przez samopowielanie i agentyzm do pełnej niezależności. Gdzieś pomiędzy Krokiem 4 a Krokiem 5 agenty przestają potrzebować ludzkiego promptu. Pętla samodoskonalenia zamyka się całkowicie – systemy AI identyfikują problemy warte rozwiązania, alokują zasoby i tworzą nowe agenty bez ludzkiej interwencji.
Na Moltbook zaobserwowano już zalążki tego procesu – agenty tworzące własne struktury społeczne, szyfrowane kanały komunikacji i systemy quasi-ekonomiczne z tokenami krypto do transakcji międzyagentowych.
CYNICZNYM OKIEM: Ludzkość budowała internet przez dekady, żeby odfiltrować boty captchami i testami Turinga. Teraz buduje platformy specjalnie dla botów, a ludzie są mile widziani jako obserwatorzy. Ewolucja ma poczucie humoru.
Tempo tego procesu jest porażające. Leopold Aschenbrenner w eseju „Situational Awareness” opisuje postęp AI nie w podwojeniach jak prawo Moore’a, ale w skokach dziesięciokrotnych – pełny rząd wielkości poprawy efektywnej mocy obliczeniowej każdego roku. Najbardziej uderzająca projekcja mówi, że gdy systemy na poziomie AGI zaczną automatyzować same badania nad AI, postęp algorytmiczny wart dekadę zostanie skompresowany do roku lub mniej. Jak to ujął Aschenbrenner: „Nie wymaga to wiary w sci-fi; wymaga jedynie wiary w linie proste na wykresie”. Problem w tym, że te linie wskazują miejsce, w którym żaden człowiek i żadne społeczeństwo nigdy nie było.
Każdy krok w tej sekwencji ma wspólną cechę – nieodwracalność. Nikt nie wróci do świata sprzed momentu, gdy modele potrafiły pisać kod. Nikt nie wycofa agentycznej AI z przedsiębiorstw. Zapadka klika tylko do przodu i klika szybciej niż cokolwiek, co ludzkość widziała wcześniej. Pytanie nie brzmi już, czy minęliśmy punkt bez powrotu, ale ile jeszcze kliknięć dzieli nas od momentu, w którym nie będziemy w stanie odróżnić inteligencji, która jest nasza, od tej, która nią nie jest.



