Jedno z najczęściej cytowanych ustaleń w debacie o sztucznej inteligencji pochodzi z pracy Eloundou, Manninga, Mishkina i Rocka z 2023 roku, zatytułowanej „GPTs are GPTs„. Tytuł ma podwójne znaczenie: bada, w jaki sposób technologie ogólnego przeznaczenia napędzane przez duże modele językowe mogą przekształcić rynek pracy. Główny wniosek brzmi, że około 80 procent amerykańskich pracowników mogłoby odczuć wpływ dużych modeli językowych na co najmniej 10 procent swoich zadań, a około 19 procent mogłoby zauważyć wpływ na połowę lub więcej swoich obowiązków. Brzmi dramatycznie, ale diabeł tkwi w szczegółach – a konkretnie w jednym słowie, które rozpaliło wyobraźnię milionów.
Tym słowem jest „ekspozycja”. Autorzy definiują bezpośrednią ekspozycję jako sytuację, w której „dostęp do LLM lub systemu opartego na LLM skróciłby czas potrzebny człowiekowi na wykonanie konkretnej czynności lub ukończenie zadania o co najmniej 50 procent”. Jasno zaznaczają w pracy: ekspozycja odpowiada zdolności AI do bycia zaangażowaną w pracę, a nie stopniu, w jakim praca ta może zostać zautomatyzowana. Problem polega na tym, że gdy ludzie słyszą, iż praca jest w „80 procentach wystawiona” na działanie AI, wyobrażają sobie, że 80 procent tej pracy znika. Faktyczna ekonomia ekspozycji i utraty pracy jest od takiej charakterystyki dość daleka.
Weekendowy projekt, który nastraszył internet
Niedawnym przykładem tego, jak łatwo ekspozycja zamienia się w panikę, jest historia Andreja Karpathy’ego – jednego ze współzałożycieli OpenAI i lidera w myśleniu o AI w szerszym ujęciu. To on ukuł takie terminy jak „poszarpana inteligencja” czy „vibe coding”. Jego panel kontrolny, który sam opisał jako „vibe-kodowany” weekendowy projekt, był rankingiem pokazującym, jak bardzo główne zawody są narażone na automatyzację napędzaną przez AI. Błyskawicznie stał się sensacją w serwisie X, ponieważ wpisał się we wszystkie istniejące narracje o gwałtownej utracie pracy z powodu sztucznej inteligencji.

Widząc, jak jego panel rozprzestrzenił się lotem błyskawicy, Karpathy wyjaśnił, że jego punktacja „ekspozycji” opierała się na szybkim, wygenerowanym przez LLM pomiarze tego, jak bardzo dana praca ma charakter cyfrowy, i nigdy nie miała być poważną prognozą tego, które zawody skurczą się lub znikną. Choć na stronie projektu widniało to samo zastrzeżenie, zostało ono w dużej mierze zignorowane.
Jak to trafnie ujęto: „Vibe-kodowany weekendowy projekt zdąży dwa razy okrążyć świat, zanim sprostowanie zdąży założyć spodnie”.
Miary ekspozycji na AI w ciągu ostatnich miesięcy regularnie stawały się hitami w mediach społecznościowych, a niektórzy badacze proponują wręcz całkowite moratorium na sam termin „ekspozycja”. Ten epizod ilustruje fundamentalny problem – miary ekspozycji przykuły uwagę opinii publicznej, ale są rutynowo błędnie odczytywane.
CYNICZNYM OKIEM: Nic tak nie napędza klików jak widmo bezrobocia w ładnym dashboardzie. Karpathy zbudował zabawkę w weekend, a internet potraktował ją jak wyrok sądowy – bo panika sprzedaje się lepiej niż zastrzeżenia drobnym drukiem.
Praca to nie jedno zadanie – to cały ekosystem
Aby zrozumieć, dlaczego ekspozycja nie równa się automatyzacji, trzeba zacząć od fundamentalnego pytania: czym właściwie jest praca? Praca to zestaw zadań, a osoba zazwyczaj otrzymuje wynagrodzenie na podstawie tego, jak dobrze wykonuje wszystkie zadania związane z danym stanowiskiem.
Weźmy kierownika projektu. Jego praca obejmuje generowanie pomysłów, zwięzłe ich przedstawianie i zbieranie opinii od członków zespołu, przygotowywanie prezentacji oraz mnóstwo rutynowej pracy – zatwierdzanie list obecności, zajmowanie się logistyką. AI może wykonać sporą część rutynowej pracy, a nawet pomóc w przygotowaniu prezentacji. Zgodnie z miarą ekspozycji praca ta jest „wystawiona” na AI.
Co dzieje się wtedy z wynagrodzeniem? Jeśli zautomatyzowanie niektórych zadań zwalnia czas na generowanie lepszych pomysłów, ogólna produktywność rośnie – kierownik staje się jeszcze bardziej wartościowy dla firmy. Ludzie nadal są zatrudnieni, a płace mogą wręcz wzrosnąć.
Z drugiej strony, jeśli AI zautomatyzuje wszystkie zadania – powiedzmy, że praca obejmuje tylko dwie czynności i obie zostają zautomatyzowane – wtedy rzeczywiście ludzka praca zostanie wyparta. Im mniejsza liczba zadań, co autorzy nazywają wymiarowością pracy, tym większa zachęta dla firmy, by w pierwszej kolejności ją zautomatyzować. To element, który umyka wielu analizom: wdrażanie AI w istniejącej organizacji jest kosztowne, więc firma będzie bardziej skłonna do inwestycji, jeśli będzie mogła zautomatyzować całe stanowisko, a nie tylko pojedyncze zadanie.
„Ekspozycja” i ryzyko automatyzacji nie są tylko funkcją możliwości modelu – zależą również od motywacji firmy. Istnieją już liczne dowody na to, że takie bodźce mają ogromne znaczenie dla tego, co i kiedy zostaje zautomatyzowane – na przykład firmy znacznie chętniej automatyzują procesy, gdy rosną koszty pracy ludzkiej.
Wreszcie nawet jeśli AI sprawia, że ludzie są bardziej produktywni i uzyskują wyższe płace, w danym sektorze wciąż mogą wystąpić masowe zwolnienia, jeśli konsumenci nie „wchłoną” zwiększonej produktywności. Jeśli spadki cen napędzane produktywnością nie zwiększą popytu na produkt, w tym sektorze po prostu potrzeba będzie mniej pracowników. To, czy ekspozycja przełoży się na lepsze czy gorsze wyniki na rynku pracy, zależy od dwóch kluczowych zmiennych: elastyczności popytu konsumpcyjnego w danym sektorze oraz wymiarowości pracy.
Teoria O-ring, czyli dlaczego wadliwa uszczelka zmienia wszystko?
Standardowe podejście do automatyzacji polega na rozbijaniu zawodów na zadania przy użyciu taksonomii takiej jak O*NET, a następnie ocenianiu, ile z tych zadań może zostać zautomatyzowanych lub wspomaganych przez AI. Całkowity wpływ na pracę jest średnią ważoną tego, jak bardzo każde zadanie zostało ulepszone. Podejście to było niezwykle użyteczne w mapowaniu krajobrazu potencjalnego zasięgu AI, ale zawiera założenie, które w przypadku większości realnych zawodów jest niemal na pewno błędne – zakłada, że zadania są rozdzielne. Oznacza to, że zautomatyzowanie zadania A nie ma wpływu na produktywność zadania B, a całkowity efekt jest po prostu sumą części.
Zastanówmy się nad pracami, które znamy. Istnieje wiele takich, w których wynik polega na poprawnym wykonaniu wielu różnych rzeczy, a nie tylko niektórych z nich. Nie można mieć kucharza, który wykonuje większość kroków przepisu, perkusisty, który zazwyczaj trzyma rytm, programisty, którego kod działa tylko częściowo. Zadania nie są rozdzielne – są komplementarne, co oznacza, że wykonanie jednego zadania dobrze lub źle wpływa na to, jak dobrze można wykonać inne zadania w ramach pracy.
Idea, że komplementarne zadania tworzą nieliniową produktywność, sięga klasycznej pracy Michaela Kremera z 1993 roku, zatytułowanej „The O-Ring Theory of Economic Development”. Nazwa pochodzi od tragicznej katastrofy promu kosmicznego Challenger – pojedyncza wadliwa uszczelka (O-ring) spowodowała katastrofalną awarię całego systemu. Spostrzeżenie Kremera polegało na tym, że jeśli produkcja wymaga wielu etapów, a każdy etap musi być wykonany dobrze, aby produkt końcowy miał wartość, wówczas produktywność staje się funkcją mnożnikową, a nie liniową względem umiejętności. Pracownik, który popełnia nieco mniej błędów na zadanie, będzie drastycznie bardziej produktywny ogółem, ponieważ te małe przyrosty jakości kumulują się na każdym etapie.
Ten model zyskał nową aktualność dzięki niedawnej pracy Joshuy Gansa i Aviego Goldfarba zatytułowanej „O-Ring Automation”, która stosuje ramy Kremera bezpośrednio do automatyzacji napędzanej przez AI. W ich modelu praca każdego pracownika składa się z określonej liczby zadań, a wynik pracy jest mnożnikiem jakości każdego z nich. Firma może zdecydować się na zautomatyzowanie dowolnego zadania poprzez wynajęcie jednostki kapitału, która dostarcza stałą jakość przy określonym koszcie. To, czy firmy zainwestują w automatyzację, zależy od kompromisów osadzonych w tym problemie – a nie od samej technicznej możliwości.
Co wynika z tego modelu, gdy w grę wchodzi częściowa automatyzacja? Przed automatyzacją pracownik rozdziela czas równomiernie na wszystkie zadania. Po zautomatyzowaniu części z nich pracownik ma nagle cały swój czas do rozdzielenia na mniejszą liczbę pozostałych zadań manualnych. Każde z nich otrzymuje więcej czasu, generując wyższą jakość. Produkcja rośnie, o ile jakość zautomatyzowanego zadania jest co najmniej tak dobra, jak pierwotna manualna jakość pracownika.
Oto kluczowe spostrzeżenie: ponieważ automatyzacja pozwala pracownikowi poświęcić więcej czasu na pozostałe zadania, produkcja może wzrosnąć nawet jeśli zautomatyzowane zadania są wykonywane z nieco niższą jakością niż ta, którą pracownik osiągał pierwotnie. To tak zwany „efekt koncentracji” – pracownik staje się bardziej produktywny właśnie dlatego, że robi mniej rzeczy. Gdy jakość automatyzacji jest wystarczająco wysoka, krańcowy produkt pracownika rośnie, a wraz z nim zazwyczaj jego płaca. Częściowa automatyzacja w świecie O-ring jest często dopełnieniem ludzkiej pracy, a nie jej substytutem.
Ale wyższa produktywność pracownika niekoniecznie oznacza więcej miejsc pracy. To zależy od popytu konsumpcyjnego. Wyobraźmy sobie fabrykę kalkulatorów – każdy pracownik wytwarza jeden dziennie, firma zatrudnia 10 osób. Gdy AI sprawia, że każdy może wytworzyć 10 kalkulatorów, cena spada, ale jeśli konsumenci wciąż chcą mniej więcej taką samą liczbę – firma zwolni 9 pracowników. Ale jeśli konsumenci kupią znacznie więcej kalkulatorów przy niższych cenach, firma zatrudni więcej ludzi, by sprostać nowemu popytowi.
To ściśle powiązane z paradoksem Jevonsa: gdy zasób zaczyna być wykorzystywany bardziej efektywnie, całkowite zużycie tego zasobu często rośnie zamiast spadać. Gdy silnik parowy sprawił, że węgiel był wykorzystywany wydajniej, zużycie węgla gwałtownie wzrosło, ponieważ tak wiele nowych zastosowań stało się opłacalnych. Ta sama logika dotyczy pracy – jeśli AI sprawia, że pracownik jest drastycznie bardziej produktywny, a popyt na dany produkt jest elastyczny, można skończyć z większą liczbą pracowników w danym zawodzie, a nie mniejszą.
CYNICZNYM OKIEM: Firmy technologiczne sprzedają nam wizję przyszłości, w której AI „wspiera” pracowników. Tymczasem w sali konferencyjnej dyrektor finansowy liczy, ile stanowisk da się zlikwidować, gdy wymiarowość pracy jest wystarczająco niska. Wspieranie to piękne słowo na etap przejściowy.
Kierowcy ciężarówek kontra konsultanci – kto naprawdę powinien się bać?
Wymiarowość pracy – czyli liczba zadań składających się na dane stanowisko – to zmienna, która jest często pomijana, a ma kluczowe znaczenie z dwóch powodów. Po pierwsze, zakładając automatyzację danego zadania, praca o niskiej wymiarowości jest bardziej narażona na całkowite wyparcie. Jeśli praca składa się z 20 zadań i jedno zostaje zautomatyzowane, ludzki pracownik jest nadal potrzebny do wykonania pozostałych 19. Ale jeśli praca składa się z jednego zadania i to zadanie zostaje zautomatyzowane – praca znika.
Po drugie – i ten wymiar jest być może pomijany najbardziej – organizacje mają silniejszą motywację do automatyzacji zadań, im mniej niezautomatyzowanych zadań pozostało w danej pracy. Wyobraźmy sobie, że automatyzacja zadania wymaga inwestycji rzędu 10 milionów dolarów. Jeśli to jedyne niezautomatyzowane zadanie, firma może zastąpić pracownika i czerpać pełne oszczędności kosztów. Jeśli po automatyzacji pozostanie jeszcze 19 innych zadań wykonywanych przez człowieka – zwrot z inwestycji jest nieporównywalnie mniejszy.
Właśnie dlatego autorzy modelu uważają, że powinniśmy bardziej martwić się o prace takie jak transport ciężarowy i magazynowanie. Około 3 milionów Amerykanów zarabia na życie kierując ciężarówkami. Wielu z nich jest po pięćdziesiątce, jeździ od dziesięcioleci i mieszka w społecznościach, dla których transport jest kręgosłupem ekonomicznym. Jazda ciężarówką to jedna z najlepszych prac, jakie można zdobyć bez wyższego wykształcenia.
Rzeczywista praca kierowcy dalekobieżnego jest zdominowana przez kilka kluczowych funkcji – bezpieczne przemieszczenie ciężarówki z punktu A do punktu B. Logistyka, załadunek i rozładunek wykonywane są przez innych. Jeśli autonomiczna jazda stanie się niezawodna na trasach dalekobieżnych, praca kierowcy nie zostanie jedynie wsparta – zostanie fundamentalnie zagrożona, a nawet może zostać całkowicie wyparta. Ta możliwość nie jest już teoretyczna – firmy takie jak Aurora Innovation i Kodiak Robotics już prowadzą na szeroką skalę pilotażowe programy autonomicznych ciężarówek i wdrożenia komercyjne na ograniczonych trasach.
Magazynowanie opowiada podobną historię. Sektor zatrudnia miliony pracowników, a wiele prac magazynowych – pobieranie towaru, pakowanie, sortowanie, przemieszczanie palet – jest stosunkowo wąskich i coraz bardziej podatnych na automatyzację. Za granicą firmy już prowadzą wysoce zautomatyzowane „ciemne magazyny”, które pracują całą dobę przy minimalnym udziale ludzkiej pracy. Magazyny te są od podstaw zaprojektowane tak, by były obsługiwane przez maszyny.
Porównajmy to z konsultantem ds. zarządzania. Jego praca łączy research, analizę danych, komunikację z klientem, projektowanie prezentacji, rozumowanie strategiczne, koordynację zespołu i zarządzanie relacjami – co najmniej siedem lub osiem odrębnych, komplementarnych zadań. Claude lub Codex mogą zautomatyzować pierwszą wersję analizy danych i tworzenie slajdów, ale konsultant jest nadal potrzebny do wszystkiego innego. Automatyzacja niektórych zadań może uczynić pozostałe bardziej wartościowymi, pozwalając pracownikowi poświęcić więcej czasu na rozmowy z klientem, przekonywanie go do wdrożenia i uzyskiwanie akceptacji od różnych jednostek. Płace mogą wzrosnąć, a zatrudnienie również może skoczyć, jeśli lepsze wyniki i niższe ceny zwiększą popyt.
Tę samą logikę można dostrzec w medycynie i nauce. Istnieje już ponad 870 zatwierdzonych przez FDA narzędzi AI dla radiologii, a 66 procent lekarzy korzysta z co najmniej jednego narzędzia AI, głównie do dyktowania notatek i wspomagania diagnostyki. Ale narzędzia te wspierają radiologów i lekarzy, a nie ich zastępują – AI zajmuje się rutynowym rozpoznawaniem wzorców, uwalniając lekarzy do skupienia się na złożonych przypadkach, komunikacji z pacjentem i osądzie klinicznym.
W standardowym podejściu konsultant ds. zarządzania jest wysoce „wystawiony” na AI, podczas gdy kierowca ciężarówki nie. Ale czy oznacza to, że konsultant jest bardziej zagrożony wyparciem? Niekoniecznie. Wysoka ekspozycja konsultanta może być wręcz dobrą wiadomością, ponieważ AI wspomoże wiele jego komplementarnych zadań, uruchamiając efekt koncentracji i potencjalnie podnosząc płace. Umiarkowana ekspozycja kierowcy ciężarówki w obrębie jednego krytycznego zadania jest natomiast znacznie bardziej niebezpieczna, ponieważ firmy transportowe mają ogromną motywację do zautomatyzowania czynności prowadzenia pojazdu, a gdy to nastąpi – praca znika.
Istotnym obiektem badań nie jest zatem średnia ekspozycja zadania, lecz struktura wąskich gardeł i to, jak automatyzacja przekształca czas pracownika wokół nich. Dwie prace o identycznych wynikach ekspozycji mogą wiązać się z całkowicie przeciwnym ryzykiem wyparcia. Pracownicy najbardziej zagrożeni to niekoniecznie ci o najwyższej średniej ekspozycji, ale ci, których praca opiera się na niewielkiej liczbie kluczowych zadań, które AI potrafi zautomatyzować. Następnym razem, gdy zobaczymy viralowy ranking zawodów „zagrożonych przez AI”, warto spojrzeć nie na procent ekspozycji, lecz zapytać: ile zadań ma ta praca i czy firma ma motywację, by zlikwidować stanowisko całkowicie?



