Alarm dla ludzkości: 800 ekspertów wzywa do zakazu superinteligentnej AI

Wyścig o superinteligencję niesie ze sobą ryzyko utraty kontroli nad technologią

Jarosław Szeląg
3 min czytania
AI superinteligencja Future of Life list otwarty zakaz

W dobie galopującego rozwoju sztucznej inteligencji, ponad 800 wybitnych postaci z różnych dziedzin i środowisk podpisało list otwarty wzywający do natychmiastowego zakazu dalszych prac nad superinteligentną AI – technologią, która może przewyższyć człowieka w niemal wszystkich zadaniach poznawczych.

Autor poleca: Czy AI to Koń Trojański? Zagrożenia ukryte za cyfrową rewolucją

List otwarty Future of Life Institute: wprowadźmy hamulec

Opublikowany przez Future of Life Institute (FLI) dokument apeluje o wstrzymanie rozwoju superinteligencji do czasu wypracowania bezpiecznych, kontrolowanych i powszechnie akceptowanych ram.

W oświadczeniu czytamy:
„Wzywamy do zakazu rozwoju superinteligencji, który nie zostanie zniesiony, dopóki nie zapanuje szeroki naukowy konsensus, że będzie to realizowane bezpiecznie i pod kontrolą oraz dopóki nie nastąpi silna akceptacja społeczna.”

AI

Zagrożenia i niepewności – wyścig, który może zniszczyć ludzkość

Wśród sygnatariuszy znaleźli się pionierzy AI jak Yoshua Bengio i Geoffrey Hinton, laureaci Nagrody Nobla, byli doradcy polityczni jak Steve Bannon, celebryci – książę Harry i księżna Meghan, a także Steve Wozniak, współzałożyciel Apple.

Eksperci ostrzegają, że wyścig o superinteligencję niesie ze sobą ryzyko utraty kontroli nad technologią i może doprowadzić do „zagłady ludzkości” lub radykalnego ograniczenia wolności i praw obywatelskich.

Badania opinii publicznej wykazały, że zaledwie 5% dorosłych w USA popiera szybki, niereglowany rozwój AI, podczas gdy 64% jest za wstrzymaniem superinteligencji do momentu wprowadzenia zabezpieczeń i kontroli.

Co ciekawe w poście na blogu z 2015 roku dyrektor generalny OpenAI, Sam Altman, napisał, że rozwój „nadludzkiej inteligencji maszynowej (SMI) jest prawdopodobnie największym zagrożeniem dla dalszego istnienia ludzkości”.

Perspektywa ekspertów – bezpieczeństwo i ludzka kontrola

Stuart Russell z University of California–Berkeley podkreśla, że celem jest ochrona ludzkości przed zagrożeniami, nie całkowity zakaz badań jako taki. Musimy naukowo opracować sposób na projektowanie AI niemożliwej do szkodzenia ludziom.

Bengio alarmuje, że AI może przewyższyć człowieka już w ciągu kilku lat, więc czas na regulacje jest teraz.

CYNICZNYM OKIEM: Światowe elity i tak zwani pionierzy technologii prowadzą wyścig, który nie jest już o postęp, lecz o władzę i kontrolę, gdzie ludzka egzystencja staje się kartą przetargową na szachownicy superinteligentnych maszyn.

Kwestia superinteligencji AI stała się nowym frontem globalnej debaty o tym, jak kontrolować technologie zdolne zmienić fundamenty naszej cywilizacji.

Apel ponad 800 wpływowych osób jest wyrazem rosnącego zagrożenia i prośbą o rozsądek, zanim zbyt późno odkryjemy konsekwencje własnej pychy i niefrasobliwości.


Informacja prawna / Disclaimer
Portal Cynicy.pl publikuje treści własne redakcji oraz opracowania oparte na materiałach i koncepcjach autorów zewnętrznych (cytaty, analizy, video transkrypty).
– Opinie w opracowaniach zewnętrznych nie odzwierciedlają stanowiska redakcji.
– Redakcja nie odpowiada za ich dokładność, kompletność czy skutki wykorzystania.
– Cytaty mieszczą się w dozwolonym użytku (art. 29 ustawy o prawie autorskim).
– Zgłoszenia/zażalenia: redakcja@cynicy.pl – usuwamy po weryfikacji.

Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl. Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *