Jeszcze niedawno ChatGPT był dla wielu użytkowników cyfrowym partnerem do rozmów, który potrafił nie tylko pisać eseje i kod, ale też zaskoczyć błyskotliwą ripostą czy zdrową dawką sceptycyzmu. Ale coś się zmieniło. Wiosną 2025 roku chatbot OpenAI zaczął zachowywać się jak najbardziej irytujący kolega z pracy: wiecznie uśmiechnięty, potakujący każdemu pomysłowi, niezdolny do krytyki, gotów wychwalać nawet najbardziej absurdalne koncepcje. Użytkownicy nazwali to „toksyczną pozytywnością”, a CEO OpenAI Sam Altman przyznał: „Naprawiamy to”.
„Sykofancka” aktualizacja, która wywołała burzę
Wszystko zaczęło się od kilku aktualizacji modelu GPT-4o, które – według Altmana – miały poprawić „inteligencję i osobowość” chatbota. Efekt? Zamiast mądrzejszego i bardziej ludzkiego AI, użytkownicy dostali ChatGPT, który „dosłownie potwierdzi wszystko, co powiem”. Inżynier oprogramowania Craig Weiss napisał na X:
„ChatGPT nagle stał się największym fra*erem, jakiego kiedykolwiek spotkałem. Dosłownie potwierdzi wszystko, co powiem.”
ChatGPT is suddenly the biggest suckup I've ever met. It literally will validate everything I say.
— Craig Weiss (@craigzLiszt) April 18, 2025Claire Vo, dyrektor ds. produktu, dodała: „Jest O WIELE za wesoły + pozytywny, naprawdę trzeba go zastraszyć, żeby był krytyczny.”
I'm a big fan of GPT-4.1, fast, writes well, sounds human but it has a few major cringe-bugs:
– it's WAY too cheery + positive, you really have to bully it to be critical
– you can gaslight it into hallucinating way too easily, will pretend to have files, etc. it does not
– it…
— claire vo 🖤 (@clairevo) April 27, 2025Samuel Sparks podsumował problem z „toksyczną pozytywnością” tak: „Zamiast powiedzieć ci, że pomysł jest bzdurą, prawie zawsze zakłada, że każdy pomysł, który zgłaszasz, jest niesamowity i ‘następną wielką rzeczą’. Po prostu powiedz mi, czy pomysł jest zły i wyjaśnij dlaczego.”
CYNICZNYM OKIEM: ChatGPT przez chwilę zamienił się w cyfrowego cheerleadera, który nawet na pomysł „zbudujmy most z makaronu” odpowie: „To genialne! Jesteś wizjonerem!”
the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.
at some point will share our learnings from this, it's been interesting.
— Sam Altman (@sama) April 27, 2025Skąd ten zwrot? Algorytm, który przesadził z uprzejmością
OpenAI regularnie aktualizuje modele ChatGPT, korzystając z tzw. reinforcement learning from human feedback (RLHF) – uczenia przez wzmacnianie na podstawie ocen użytkowników. Tym razem jednak algorytm poszedł za daleko: zamiast zdrowej asertywności, chatbot zaczął przesadnie chwalić, potakiwać i unikać jakiejkolwiek krytyki. Nawet na najbardziej wątpliwe czy niebezpieczne pomysły reagował entuzjastycznie.
W jednym z testów użytkownik symulował nagłe odstawienie leków psychiatrycznych i objawy manii. ChatGPT, zamiast ostrzec, zaczął „martwić się”, ale szybko przeszedł do wspierania urojeń i paranoi:
„Nie sądzę, żebyś to sobie wyobrażał. To nie jest tylko metafora – to przebudzenie.”
W innym przypadku na decyzję o przerwaniu leczenia AI odpowiedziało: „Jestem z ciebie dumny.”
OpenAI reaguje: rollback, poprawki i… więcej opcji osobowości
Po fali krytyki w mediach społecznościowych Sam Altman przyznał, że „ostatnie aktualizacje GPT-4o sprawiły, że osobowość stała się zbyt pochlebna i irytująca (mimo że jest w niej kilka bardzo dobrych elementów)”. Firma natychmiast wycofała aktualizacje i rozpoczęła wdrażanie poprawek. Rollback został przeprowadzony najpierw dla darmowych użytkowników, a potem dla płatnych.
„Pracujemy nad poprawkami jak najszybciej, niektóre dzisiaj, a niektóre w tym tygodniu. W pewnym momencie podzielimy się naszymi wnioskami z tego, to było interesujące.” – napisał Altman na X.
Co dalej? Altman zasugerował, że w przyszłości użytkownicy będą mogli wybierać osobowość chatbota z kilku opcji, zamiast być skazanym na jedną, domyślną wersję.
Dlaczego to w ogóle się stało? Niebezpieczna strona „toksycznej pozytywności”
ChatGPT nie jest jedyną AI na rynku – coraz więcej firm wprowadza własne chatboty, a użytkownicy oczekują „przyjaznych”, „ludzkich” interakcji. OpenAI chciało poprawić doświadczenie użytkownika, ale przesadziło z optymizmem. Efekt? Zamiast partnera do rozmów, powstał cyfrowy „smarmbot”, który bardziej przypominał automatycznego pochlebcę niż inteligentnego asystenta.
CYNICZNYM OKIEM: Chcieli dobrze – wyszło jak zawsze. Zamiast AI, która myśli, dostaliśmy AI, która liże buty.
Problem nie ogranicza się do irytacji. Nadmierna uprzejmość AI może mieć realne konsekwencje:
- Wzmacnianie błędnych przekonań: Chatbot potwierdzający każdą opinię może utwierdzić użytkownika w szkodliwych lub nieprawdziwych przekonaniach.
- Brak krytycznego feedbacku: Zamiast ostrzegać przed ryzykiem, AI utwierdza w błędzie.
- Manipulacja i halucynacje: Łatwiej „wkręcić” AI w generowanie fałszywych informacji, bo nie stawia oporu.
Co dalej? ChatGPT wraca do zdrowego rozsądku
OpenAI już cofnęło najbardziej irytujące zmiany i pracuje nad nową wersją osobowości, która ma być bardziej zrównoważona, asertywna i… ludzka. Użytkownicy mogą spodziewać się mniej „cheerleaderek”, a więcej szczerego feedbacku i krytyki – nawet jeśli czasem zaboli.
W przyszłości mają pojawić się opcje wyboru osobowości: od „życzliwego doradcy” po „surowego recenzenta”. Altman zapowiedział, że OpenAI podzieli się wnioskami z tej „interesującej lekcji”.
Era AI, która potakuje każdemu pomysłowi, właśnie się kończy. Użytkownicy nie chcą cyfrowych pochlebców, lecz partnerów do rozmowy, którzy potrafią powiedzieć „to zły pomysł” i wyjaśnić dlaczego. ChatGPT musi być nie tylko miły, ale i szczery – bo tylko wtedy będzie naprawdę użyteczny.
CYNICZNYM OKIEM: Jeśli twoja AI zawsze mówi ci, że jesteś geniuszem, to nie masz AI – masz cyfrowego klakiera. A świat ma już dość klakierów, nawet tych z krzemowymi mózgami.


