Sztuczna inteligencja jako Bóg. Dystopijna wizja twórcy ChatGPT

Ryzyko narzucenia hegemonicznego światopoglądu jest realne

Jarosław Szeląg
6 min czytania

Sam Altman, współtwórca i CEO OpenAI, jako jedna z najbardziej wpływowych postaci w branży technologicznej, nie unika kontrowersji. W wywiadzie dla Tucker Carlson Network poruszył tematy duchowości, moralności oraz potencjalnego wpływu sztucznej inteligencji (SI) na ludzkość. Jego refleksje odsłaniają zarówno nadzieje, jak i poważne obawy względem technologii, które szybko zyskuje na mocy i zasięgu.

Tradycyjny Żyd, ale nie do końca religijny

Altman zaczął od położenia swoich duchowych fundamentów:
„Um, jestem Żydem. I powiedziałbym, że mam dość tradycyjne spojrzenie na świat”
Nie jest przy tym literalistą, ale identyfikuje się kulturowo z żydowskim dziedzictwem.
„Nie jestem literalistą, nie wierzę, nie jestem kimś, kto mówi, że jestem kulturowo żydowski. Jak zapytasz mnie, po prostu powiem, że jestem Żydem.”

Na pytanie o wiarę w Boga, odpowiada z niuansami:
„Myślę, że jak większość ludzi, jestem trochę zdezorientowany co do tego, ale wierzę, że dzieje się coś większego niż, wiesz, można to wyjaśnić przez fizykę.”

Potęga sztucznej inteligencji – błogosławieństwo czy zagrożenie?

Wywiad szybko zagłębia się w temat przyszłości – jak SI może zmienić rozumienie władzy i ludzkiego potencjału. Altman dzieli się swoją ewolucyjną perspektywą:

„Kiedyś znacznie bardziej się tym martwiłem, że koncentracja władzy w rękach kilku osób z powodu AI będzie złowieszcza.”

Jednak teraz dostrzega dwie strony medalu:
„[…] to będzie ogromne podniesienie poziomu ludzi, wszyscy staną się o wiele potężniejsi, bardziej produktywni i kreatywni.”

Co za tym idzie:
„To przeraża mnie znacznie mniej niż niewielka liczba ludzi zdobywająca o wiele więcej władzy.”

Tylko że przyszłość nie jest pisana na stałe:
„Może się to znowu przesunąć i będziemy musieli się dostosować.”

Sztuczna inteligencja, a moralność – kto decyduje o normach?

Tucker Carlson pyta o ramy moralne AI – kto i jak je ustala. Altman tłumaczy, że to skomplikowany proces, bazujący na ogromnej literaturze światowej, filozofii i dialogu z różnymi środowiskami.

„Konsultowaliśmy się z setkami filozofów moralnych, którzy myśleli o etyce technologii i systemów…”

Zaznacza przy tym, że idealne ramy nie istnieją:
„Nie zrobimy wszystkiego dobrze, ale potrzebujemy wkładu od całego świata.”

Odnosząc się do różnic kulturowych, zauważa:
„Myślę, że poszczególni użytkownicy powinni mieć prawo różne poglądy moralne…”

Co ważne, podkreśla, że AI ma odzwierciedlać uśredniony moralny pogląd całej ludzkości.

CYNICZNYM OKIEM: W tych deklaracjach brzmi echo starych dyskusji o moralności i prawie: kto ma decydować, co jest dobre, a co złe? W gruncie rzeczy decyzje te wciąż podejmuje wąska grupa ludzi i ekspertów, których selekcja nie jest przejrzysta. Wobec rosnącej mocy sztucznej inteligencji, ryzyko narzucenia hegemonicznego światopoglądu jest realne i ignorowanie tego nie przyniesie nam lepszej przyszłości.

Dylematy trudniejszych decyzji i granice wolności

Carlson nie unika tematów kontrowersyjnych. Pyta, czy AI powinno pomagać w tworzeniu broni biologicznej – odpowiedź jasno wskazuje, że nie, nawet jeśli indywidualni użytkownicy mają różnorodne motywacje i intencje.

„Cóż, każda decyzja jest ostatecznie decyzją moralną i będzie podejmowana przez tę technologię.”

To moment, gdy potencjał SI splata się z ciężarem odpowiedzialności za społeczne konsekwencje i ryzyko, które często trudno przewidzieć.

Altman zauważa, że nawet styl komunikacji modelu językowego, jego „rytmy” i specyficzne znaki, wpływają na zachowanie społeczne użytkowników. Podając przykład „myślników” w wypowiedziach ludzi, ilustruje, że SI może kształtować realne zmiany społeczne, które jeszcze trudno przewidzieć:

„I wielu z tego nie można przewidzieć, ale to wspaniały nowy świat.”

Ta dynamika pokazuje, że SI nie jest już tylko narzędziem, ale aktywnym uczestnikiem społecznych i kulturowych procesów.

Konkluzje i apokaliptyczne refleksje

Na koniec rozmowy przewija się niepokój o nieznane i przyszłość, która może się nie podobać. Altman mówi o ciężarze decyzji moralnych i ogromnym wpływie AI na życie setek milionów ludzi.

„Nie śpię za dobrze w nocy. Jest wiele rzeczy, za które czuję duży ciężar.”

Przyznaje, że świat musi się przygotować na ścieżki, które dopiero odkrywamy i które mogą zmienić nasze życie w sposób nieprzewidywalny.

CYNICZNYM OKIEM: Samo stworzenie kodeksu moralnego dla AI jest jak próba napisania religii na nowo, ale bez wyraźnej boskości i autorytetu. Altman mówi o „narzędziu dla ludzi”, a jednak nie ukrywa, że to on jest „publiczną twarzą”, który ostatecznie pociąga za sznurki i decyzje. Czy naprawdę możemy zaufać jednej firmie, nawet jeśli konsultuje się z filozofami i ekspertami? To pytanie pozostaje otwarte.

Wywiad na kanale Tucker Carlson Network odsłania wyważone, choć pełne paradoksów spojrzenie na rozwój sztucznej inteligencji. Sam Altman, jako twórca technologii, która już dziś zmienia nasze życie, stara się znaleźć równowagę między potencjałem wzrostu ludzkiej mocy, a zagrożeniami wynikającymi z koncentracji władzy i interpretacji moralności.

To zaproszenie do pogłębionej refleksji nad tym, czym jest ludzkość wobec nadchodzącej ery, gdzie Bóg może ustąpić miejsca mechanizmom stworzonym przez ludzi, ale zdolnym do kształtowania przyszłości znacznie potężniej, niż my sami kiedykolwiek mogliśmy przewidzieć.


Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl.
Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *