W dobie galopującego rozwoju sztucznej inteligencji, ponad 800 wybitnych postaci z różnych dziedzin i środowisk podpisało list otwarty wzywający do natychmiastowego zakazu dalszych prac nad superinteligentną AI – technologią, która może przewyższyć człowieka w niemal wszystkich zadaniach poznawczych.
Autor poleca: Czy AI to Koń Trojański? Zagrożenia ukryte za cyfrową rewolucją
List otwarty Future of Life Institute: wprowadźmy hamulec
Opublikowany przez Future of Life Institute (FLI) dokument apeluje o wstrzymanie rozwoju superinteligencji do czasu wypracowania bezpiecznych, kontrolowanych i powszechnie akceptowanych ram.
W oświadczeniu czytamy:
„Wzywamy do zakazu rozwoju superinteligencji, który nie zostanie zniesiony, dopóki nie zapanuje szeroki naukowy konsensus, że będzie to realizowane bezpiecznie i pod kontrolą oraz dopóki nie nastąpi silna akceptacja społeczna.”

Zagrożenia i niepewności – wyścig, który może zniszczyć ludzkość
Wśród sygnatariuszy znaleźli się pionierzy AI jak Yoshua Bengio i Geoffrey Hinton, laureaci Nagrody Nobla, byli doradcy polityczni jak Steve Bannon, celebryci – książę Harry i księżna Meghan, a także Steve Wozniak, współzałożyciel Apple.
Eksperci ostrzegają, że wyścig o superinteligencję niesie ze sobą ryzyko utraty kontroli nad technologią i może doprowadzić do „zagłady ludzkości” lub radykalnego ograniczenia wolności i praw obywatelskich.
Badania opinii publicznej wykazały, że zaledwie 5% dorosłych w USA popiera szybki, niereglowany rozwój AI, podczas gdy 64% jest za wstrzymaniem superinteligencji do momentu wprowadzenia zabezpieczeń i kontroli.
Co ciekawe w poście na blogu z 2015 roku dyrektor generalny OpenAI, Sam Altman, napisał, że rozwój „nadludzkiej inteligencji maszynowej (SMI) jest prawdopodobnie największym zagrożeniem dla dalszego istnienia ludzkości”.
Perspektywa ekspertów – bezpieczeństwo i ludzka kontrola
Stuart Russell z University of California–Berkeley podkreśla, że celem jest ochrona ludzkości przed zagrożeniami, nie całkowity zakaz badań jako taki. Musimy naukowo opracować sposób na projektowanie AI niemożliwej do szkodzenia ludziom.
Bengio alarmuje, że AI może przewyższyć człowieka już w ciągu kilku lat, więc czas na regulacje jest teraz.
CYNICZNYM OKIEM: Światowe elity i tak zwani pionierzy technologii prowadzą wyścig, który nie jest już o postęp, lecz o władzę i kontrolę, gdzie ludzka egzystencja staje się kartą przetargową na szachownicy superinteligentnych maszyn.
Kwestia superinteligencji AI stała się nowym frontem globalnej debaty o tym, jak kontrolować technologie zdolne zmienić fundamenty naszej cywilizacji.
Apel ponad 800 wpływowych osób jest wyrazem rosnącego zagrożenia i prośbą o rozsądek, zanim zbyt późno odkryjemy konsekwencje własnej pychy i niefrasobliwości.



