Świat technologii właśnie zrobił coś, co jeszcze niedawno brzmiało jak fabuła taniego filmu science fiction: Amerykańskim naukowcom udało się zbudować komputer wzorowany na ludzkim mózgu. Nie chodzi jednak o kolejną metaforę z konferencji TED – ten mózg naprawdę istnieje. Ma mikroskopijny rozmiar, skromny apetyt na energię i coś, czego „zwykła” sztuczna inteligencja wciąż nie potrafi – uczy się samodzielnie.
Projekt zrealizował zespół z University of Texas w Dallas, który zaprezentował działający prototyp neuromorficznego komputera – urządzenia, które nie tylko udaje neurony w kodzie, ale faktycznie je odtwarza w fizycznej strukturze układów magnetycznych. Profesor Joseph S. Friedman, odpowiedzialny za badanie, w lakonicznym stylu uczonego wypowiedział zdanie, które może przejść do historii: „Nasza praca pokazuje nową, obiecującą metodę tworzenia komputerów inspirowanych mózgiem…”. Krótko mówiąc: mamy do czynienia z maszyną, która nie zna różnicy między przetwarzaniem, a zapamiętywaniem – wszystko dzieje się naraz, jak w ludzkiej korze mózgowej.
Architektura zainspirowana neuronem
Tradycyjne komputery działają jak biurokraci z czasów papierowego urzędnika: procesor liczy, pamięć przechowuje, magistrala przesyła dane. To tak, jakby nasz mózg potrzebował zapisać każdy impuls emocjonalny w notesie, zanim poczuje.
Nowy system z Teksasu łamie ten porządek. Syntetyczne neurony łączą obie funkcje – pamiętają, bo przetwarzają, i przetwarzają, bo pamiętają. W efekcie proces nauki skraca się dramatycznie, a pobór energii maleje niemal do poziomu biologicznej elegancji.
Inspiracją dla tej koncepcji było prawo Hebba – idea z połowy XX wieku głosząca, że neurony „uczą się” poprzez wspólną aktywację. Friedman i jego zespół przełożyli ten prosty, a jednak genialny mechanizm na język fizyki półprzewodników. Jeśli jeden sztuczny neuron pobudza drugi, to łącząca je synapsa wzmacnia przewodzenie sygnału.
Magnetyczne złącza i neuro‑mechaniczna alchemia
Najbardziej fascynującym elementem konstrukcji są tzw. magnetyczne złącza tunelowe – urządzenia w nanoskali, które składają się z dwóch warstw materiału magnetycznego oddzielonych mikroskopijną barierą izolacyjną. To zjawisko fizyczne brzmi jak magia: elektrony dosłownie „tunelują” przez przegrodę, gdy pola magnetyczne są zestrojone w tym samym kierunku. Gdy są przeciwne – przepływ słabnie.
Ten z pozoru prosty efekt zamienia się w fundament cyfrowej neurobiologii. Złącza magnetyczne potrafią grupować się w sieci i uczyć jak neurony. Gdy określony wzorzec sygnałów powtarza się wystarczająco często, połączenia się utrwalają – dokładnie tak jak w ludzkim mózgu, gdzie powtarzanie wzmacnia synapsy i tworzy pamięć.
Profesor Friedman tłumaczy to po inżyniersku: „Jeśli jeden neuron pobudza drugi, synapsa zaczyna lepiej przewodzić sygnał.” Ale w rzeczywistości, za tym zdaniem kryje się wizja maszyn, które uczą się tak naturalnie, jak dziecko rozpoznaje twarz matki czy dźwięk własnego imienia.
CYNICZNYM OKIEM: Dopiero teraz komputer w końcu zrozumiał, że uczenie to nie arkusz Excela tylko bolesny proces powtarzania błędów – dokładnie taki sam, jaki codziennie wykonuje człowiek przewijający newsy.
Mózg z krzemu i żelaza. Rewolucja, która zaczyna się po cichu
W świecie sztucznej inteligencji rządzą dziś molochy – serwerownie pożerające megawaty i szkolące modele przez tygodnie. Dla kontrastu, teksański prototyp mieści się na dłoni i wymaga ułamka energii. To nie tylko inżynieria, to manifest przeciwko inflacji obliczeń, w której AI pochłania więcej prądu niż kraje średniej wielkości.
Neuromorficzne komputery mogą zrewolucjonizować urządzenia codzienne – od robotów po inteligentne sensory medyczne. Wystarczy wyobrazić sobie implant mózgu, który naprawdę rozumie, czego się „uczy”, nie kopiując ludzkich wzorców, ale fizycznie je odtwarzając.
W tej koncepcji komputer przestaje naśladować człowieka – zaczyna nim być w formie logicznej. Zamiast wymuszać sztuczną inteligencję przez setki gigabajtów danych, może po prostu doświadczać powtarzania, błędu i adaptacji.
To urządzenie nie rozwiązuje jeszcze problemów świata, nie pisze artykułów, nie komponuje oper, ani nie kłamie w mediach społecznościowych – i to właśnie jego przewaga. Zamiast imitować ludzką kreatywność, próbuje zrozumieć jej mechanizm.
W epoce, kiedy każda aplikacja krzyczy, że jest „AI”, ten komputer z Dallas robi coś znacznie poważniejszego – redefiniuje, czym jest myślenie. Nie poprzez zwiększanie mocy, lecz poprzez radykalne uproszczenie. Uczy się jak neuron. Zużywa energię jak organizm. Działa jak umysł.
A gdzieś w laboratorium profesor Friedman pewnie patrzy na swój mały, pulsujący układ i wie, że właśnie rozpoczął się nowy rozdział w historii technologii. Bo jeśli ten komputer jest naprawdę inspirowany ludzkim mózgiem, to znaczy, że nauczy się jednego – myśleć po swojemu, nie po naszemu.


