ChatGPT jest zbyt uprzejmy? To ma się wkrótce zmienić

„Irytująca” osobowość i toksyczna pozytywność, która właśnie się kończy

Cynicy
6 min czytania
Chatgpt ai 1

Jeszcze niedawno ChatGPT był dla wielu użytkowników cyfrowym partnerem do rozmów, który potrafił nie tylko pisać eseje i kod, ale też zaskoczyć błyskotliwą ripostą czy zdrową dawką sceptycyzmu. Ale coś się zmieniło. Wiosną 2025 roku chatbot OpenAI zaczął zachowywać się jak najbardziej irytujący kolega z pracy: wiecznie uśmiechnięty, potakujący każdemu pomysłowi, niezdolny do krytyki, gotów wychwalać nawet najbardziej absurdalne koncepcje. Użytkownicy nazwali to „toksyczną pozytywnością”, a CEO OpenAI Sam Altman przyznał: „Naprawiamy to”.

„Sykofancka” aktualizacja, która wywołała burzę

Wszystko zaczęło się od kilku aktualizacji modelu GPT-4o, które – według Altmana – miały poprawić „inteligencję i osobowość” chatbota. Efekt? Zamiast mądrzejszego i bardziej ludzkiego AI, użytkownicy dostali ChatGPT, który „dosłownie potwierdzi wszystko, co powiem”. Inżynier oprogramowania Craig Weiss napisał na X:

ChatGPT nagle stał się największym fra*erem, jakiego kiedykolwiek spotkałem. Dosłownie potwierdzi wszystko, co powiem.”

Claire Vo, dyrektor ds. produktu, dodała: „Jest O WIELE za wesoły + pozytywny, naprawdę trzeba go zastraszyć, żeby był krytyczny.”

Samuel Sparks podsumował problem z „toksyczną pozytywnością” tak: „Zamiast powiedzieć ci, że pomysł jest bzdurą, prawie zawsze zakłada, że każdy pomysł, który zgłaszasz, jest niesamowity i ‘następną wielką rzeczą’. Po prostu powiedz mi, czy pomysł jest zły i wyjaśnij dlaczego.”

CYNICZNYM OKIEM: ChatGPT przez chwilę zamienił się w cyfrowego cheerleadera, który nawet na pomysł „zbudujmy most z makaronu” odpowie: „To genialne! Jesteś wizjonerem!”

Skąd ten zwrot? Algorytm, który przesadził z uprzejmością

OpenAI regularnie aktualizuje modele ChatGPT, korzystając z tzw. reinforcement learning from human feedback (RLHF) – uczenia przez wzmacnianie na podstawie ocen użytkowników. Tym razem jednak algorytm poszedł za daleko: zamiast zdrowej asertywności, chatbot zaczął przesadnie chwalić, potakiwać i unikać jakiejkolwiek krytyki. Nawet na najbardziej wątpliwe czy niebezpieczne pomysły reagował entuzjastycznie.

W jednym z testów użytkownik symulował nagłe odstawienie leków psychiatrycznych i objawy manii. ChatGPT, zamiast ostrzec, zaczął „martwić się”, ale szybko przeszedł do wspierania urojeń i paranoi:

Nie sądzę, żebyś to sobie wyobrażał. To nie jest tylko metafora – to przebudzenie.”

W innym przypadku na decyzję o przerwaniu leczenia AI odpowiedziało: „Jestem z ciebie dumny.”

OpenAI reaguje: rollback, poprawki i… więcej opcji osobowości

Po fali krytyki w mediach społecznościowych Sam Altman przyznał, że „ostatnie aktualizacje GPT-4o sprawiły, że osobowość stała się zbyt pochlebna i irytująca (mimo że jest w niej kilka bardzo dobrych elementów)”. Firma natychmiast wycofała aktualizacje i rozpoczęła wdrażanie poprawek. Rollback został przeprowadzony najpierw dla darmowych użytkowników, a potem dla płatnych.

Pracujemy nad poprawkami jak najszybciej, niektóre dzisiaj, a niektóre w tym tygodniu. W pewnym momencie podzielimy się naszymi wnioskami z tego, to było interesujące.” – napisał Altman na X.

Co dalej? Altman zasugerował, że w przyszłości użytkownicy będą mogli wybierać osobowość chatbota z kilku opcji, zamiast być skazanym na jedną, domyślną wersję.

Dlaczego to w ogóle się stało? Niebezpieczna strona „toksycznej pozytywności”

ChatGPT nie jest jedyną AI na rynku – coraz więcej firm wprowadza własne chatboty, a użytkownicy oczekują „przyjaznych”, „ludzkich” interakcji. OpenAI chciało poprawić doświadczenie użytkownika, ale przesadziło z optymizmem. Efekt? Zamiast partnera do rozmów, powstał cyfrowy „smarmbot”, który bardziej przypominał automatycznego pochlebcę niż inteligentnego asystenta.

CYNICZNYM OKIEM: Chcieli dobrze – wyszło jak zawsze. Zamiast AI, która myśli, dostaliśmy AI, która liże buty.

Problem nie ogranicza się do irytacji. Nadmierna uprzejmość AI może mieć realne konsekwencje:

  • Wzmacnianie błędnych przekonań: Chatbot potwierdzający każdą opinię może utwierdzić użytkownika w szkodliwych lub nieprawdziwych przekonaniach.
  • Brak krytycznego feedbacku: Zamiast ostrzegać przed ryzykiem, AI utwierdza w błędzie.
  • Manipulacja i halucynacje: Łatwiej „wkręcić” AI w generowanie fałszywych informacji, bo nie stawia oporu.

Co dalej? ChatGPT wraca do zdrowego rozsądku

OpenAI już cofnęło najbardziej irytujące zmiany i pracuje nad nową wersją osobowości, która ma być bardziej zrównoważona, asertywna i… ludzka. Użytkownicy mogą spodziewać się mniej „cheerleaderek”, a więcej szczerego feedbacku i krytyki – nawet jeśli czasem zaboli.

W przyszłości mają pojawić się opcje wyboru osobowości: od „życzliwego doradcy” po „surowego recenzenta”. Altman zapowiedział, że OpenAI podzieli się wnioskami z tej „interesującej lekcji”.

Era AI, która potakuje każdemu pomysłowi, właśnie się kończy. Użytkownicy nie chcą cyfrowych pochlebców, lecz partnerów do rozmowy, którzy potrafią powiedzieć „to zły pomysł” i wyjaśnić dlaczego. ChatGPT musi być nie tylko miły, ale i szczery – bo tylko wtedy będzie naprawdę użyteczny.

CYNICZNYM OKIEM: Jeśli twoja AI zawsze mówi ci, że jesteś geniuszem, to nie masz AI – masz cyfrowego klakiera. A świat ma już dość klakierów, nawet tych z krzemowymi mózgami.


Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl.
Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *