Ann Johnson, 30-letnia kobieta z Kanady, jeszcze niedawno prowadziła pełne życie – pracowała jako nauczycielka matematyki i wychowania fizycznego, aktywnie uprawiała sport, wychowywała dziecko, a podczas własnego ślubu wygłosiła 15-minutowe przemówienie pełne radości. Wszystko to przerwał tragiczny udar pnia mózgu w 2005 roku, który niemal całkowicie sparaliżował Ann i odebrał jej zdolność mówienia. Przez niemal dwie dekady komunikowała się tylko za pomocą systemu śledzenia ruchu oczu, literując słowa powoli i z trudem.
Eksperymentalny implant mózgowy – powrót do świata słów
W 2022 roku Ann została trzecią uczestniczką badań klinicznych prowadzonych przez naukowców z Uniwersytetu Kalifornijskiego w San Francisco oraz Berkeley, którzy opracowali interfejs mózg-komputer wykorzystujący implant zasilany sztuczną inteligencją. Urządzenie obejmuje mikroelektrody rejestrujące aktywność mózgu w obszarze odpowiedzialnym za mowę, a następnie przekłada ją na tekst, dźwięk lub animację twarzy.
Profesor Gopala Anumanchipalli z UC Berkeley wyjaśnia: „Udało nam się dokładnie zlokalizować fragment mózgu, który odpowiada za produkcję mowy, a następnie stworzyliśmy model AI potrafiący tłumaczyć sygnały mózgowe na komunikaty zrozumiałe dla ludzi.” System działa jak Siri, ale zamiast głosu użytkownika tłumaczy intencje zapisane w umyśle.
Unikalne rozwiązania – cyfrowy klon i awatar dla pacjentki
Aby umożliwić Ann powrót do naturalnej komunikacji, badacze przygotowali dla niej cyfrowego awatara, którego głos oparty jest na nagraniu jej własnego przemówienia weselnego. Ann mogła sterować tym awatarem, wypowiadając zdania mentalnie, które były natychmiast przetwarzane i prezentowane w formie dźwiękowej lub wizualnej.
„Nie chodziło o czytanie myśli, lecz o udzielenie jej kontroli nad procesem” – podkreśla Kaylo Littlejohn, doktorant i współautor projektu. Implant pozostaje bierny, dopóki pacjentka próbuje mówić – wtedy uruchamia się system generujący mowę lub animację.
Pierwsze wersje systemu miały opóźnienia sięgające 8 sekund, jednak w marcu 2025 roku opublikowano w „Nature Neuroscience” wyniki ulepszonej architektury streamingowej, która zredukowała tę wartość do około jednej sekundy, umożliwiając praktycznie tłumaczenie w czasie rzeczywistym. To przełom w technologiach neuroprotezy i komunikacji dla osób z paraliżem.
CYNICZNYM OKIEM: Cuda technologii mają często gorzką cenę – mimo że implant daje Ann głos, to nadal jest to wyraz triumfu maszyny nad naturą. W świecie, gdzie zaawansowana AI umożliwia rozmowę osobom niemówiącym, rodzi się równolegle pytanie, co dzieje się z prawdziwym, ciepłym kontaktem człowieka z drugim człowiekiem, czy nie stajemy się powoli społeczeństwem interfejsów, cyfrowych awatarów i symulacji ludzkich emocji?
Kontynuacja badań i nadzieja na przyszłość
Implant został usunięty w lutym 2024 roku z powodów technicznych, nie związanych z badaniem, lecz Ann nadal aktywnie współpracuje z zespołem badawczym, nacechowana optymizmem co do rozwijania bezprzewodowych implantów oraz dalszej poprawy syntezy mowy.
Profesor Anumanchipalli podkreśla długoterminowy cel badań: uczynienie neuroprotezy łatwą w instalacji i dostępnej jako element standardowej opieki medycznej. „Chcemy, żeby osoby niemówiące miały cyfrową wersję siebie, zdolną do komunikacji” – mówi naukowiec.
Ann wyraża pragnienie powrotu do aktywności zawodowej, szczególnie jako doradczyni w ośrodku rehabilitacji ruchowej. Chce, by inni pacjenci wiedzieli, że niepełnosprawność nie musi zakończyć życia czy kariery, i by jej historia była inspiracją do przełamywania barier.
„Chcę pokazać, że życie może trwać mimo niepełnosprawności” – napisała w rozmowie z reporterem UCSF.


