Netflix / mat. pr.
Struktura

Biologie fantastyczne: „Atlas”, czyli synergia człowieka i AI

Artyści wszczepiają sobie urządzenia, żeby zyskać nowe zmysły. Ma to sens?
Technologia

Artyści wszczepiają sobie urządzenia, żeby zyskać nowe zmysły. Ma to sens?

Cyborgiczni artyści chcą głębszego kontaktu ze światem. Wszczepiają sobie urządzenia, które pozwalają zyskać „nowe” zmysły. Jednak ewolucja nie bez powodu obdarzyła nas ich ograniczoną liczbą.

Biologie fantastyczne: Relatywizm komunikacyjny w „Problemie trzech ciał” i „Nowym początku”
Struktura

Biologie fantastyczne: Relatywizm komunikacyjny w „Problemie trzech ciał” i „Nowym początku”

Czy możliwe jest istnienie inteligentnego, samoświadomego i zaawansowanego społecznie gatunku, który jest całkowicie wyzbyty fałszu? [Uwaga, liczne spojlery!]

Biologie fantastyczne: Czerwie z Diuny
Struktura

Biologie fantastyczne: Czerwie z Diuny

Ekosystemy wyobrażone są nie mniej interesujące niż te realne – każą przemyśleć nie tylko dotychczasową wiedzę naukową, ale i granice ludzkiej wyobraźni. Przyjrzymy się im uważniej. A pierwszym spojrzeniem obdarzymy pustynną krainę Arrakis, którą  w „Kronikach Diuny” opisał Frank Herbert.

Połączenie „organicznego” mózgu z robotem zasilanym sztuczną inteligencją to wytwór fantazji? A może kwestia niedalekiej przyszłości?

„Atlas” jest hitem, który od kilku tygodni zarazem stoi na podium, jak i grzeje ławę. Zajmuje obecnie drugie miejsce w światowym rankingu najpopularniejszych filmów oglądanych na Netflixie. Jednoosobowo celebrycka obsada (Jennifer Lopez jako tytułowa bohaterka imieniem Atlas) zwabiła przed ekrany już niemal 9 mln widzów. W Polsce film utrzymuje się na liście Top 10 od 3 tygodni (obecnie na 8. miejscu).

Skoro jest tak popularny, to czym sobie zasłużyła na porównanie do zawodnika rezerwowego?

AI rozmawia z JLO

Cóż, „Atlas” jest wieczorną zapchajdziurą, pierniczkami z marmoladą, które da się skonsumować tylko wtedy, gdy wszystko inne zostało już zjedzone i trzeba mieć coś do popicia, bo inaczej nie wejdzie. To doinwestowane przedstawienie szkolne, w którym struktura: wstęp, rozwinięcie, zakończenie, nie została nawet draśnięta pilniczkiem do paznokci. Dlatego tę produkcję należy oglądać z odpowiednim kluczem. Najlepiej, aby była nim refleksja Phila Dunphy’ego z „Modern Family”: „Najbardziej niesamowite rzeczy, jakie mogą się przydarzyć człowiekowi, przydarzą się Tobie, jeśli tylko obniżysz swoje oczekiwania”. Podążając za tą mądrością, przed emisją sformułowałam tylko dwa checkboxy: JLO oraz roboty. Oba zostały zaliczone.

Jednak „Atlas” to nie tylko „Jenny from the block” oraz mechy wyposażone w sztuczną inteligencję. Główna rozterka tej produkcji ma dotyczyć sztucznej inteligencji integrującej się z myślami człowieka. Konflikt ten występuje tu w znanym i lubianym schemacie, czyli:

  • pani nie ufa AI, bo jest złe,
  • a jednak AI potrafi być też dobre,
  • pani ufa AI.

Finał tych dylematów sformułowano tak: połączone siły sztucznej inteligencji oraz człowieka to więcej, niż tylko suma ich możliwości.

Ta synergia jest w filmie osiągana w następujący sposób: tzw. neurozłącza (w oryginale Neural Links) pozwalają podpiąć ludzki mózg do sztucznej inteligencji. I odwrotnie. W ten sposób AI jest w stanie sczytywać myśli człowieka, a ten z kolei ma dostęp do wewnętrznych zasobów maszyny. Dzięki temu oba systemy – ten biologiczny i ten oparty na kodzie – mogą widzieć to samo (np. symulację przestrzennej mapy terenu) i czuć to samo (np. potrzebę dążenia do wspólnego celu). Razem wykonują też złożone czynności: poruszają kończynami mecha, uruchamiają systemy za pomocą samej tylko intencji czy wykonują unik w odpowiedzi na zagrożenia. Czy tak zaawansowana, sterowana wyłącznie myślami, współpraca pomiędzy człowiekiem a maszyną jest osiągalna? Owszem, i to nie w perspektywie kilkunastu lat, lecz dziś lub jutro.

AI odbiera sygnał

Oczywiście najbardziej znane projekty zmierzające do stworzenia zaawansowanych interfejsów typu mózg-komputer (Brain-Computer Interface, BCI) to te fundowane przez Elona Muska. Kontrowersyjny miliarder wywołuje swoimi działaniami wiele krytyki, ale tym samym zwiększa popularność przedsięwzięć markowanych swoim nazwiskiem. Jednym z nich jest Neuralink – firma pracująca nad chipami wszczepianymi wprost do tkanek mózgu, umożliwiającymi kontrolowanie zewnętrznych systemów za pomocą samej aktywności neuronów. Na początku tego roku podmiot otrzymał pozwolenia na przeprowadzenie testów klinicznych. Pierwszym pacjentem, który wziął w nich udział, był Noland Arbaugh – 29-latek cierpiący na porażenie czterokończynowe, którego doznał po nieudanym skoku do wody. Mężczyzna przeszedł procedurę chirurgiczną wszczepienia do mózgu implantu łączącego się zdalnie z zewnętrznym komputerem lub smartfonem. Dzięki temu połączeniu jest w stanie pracować na laptopie, grać w gry, wystukiwać numery telefonów czy pisać wiadomości bez poruszenia jakąkolwiek częścią ciała. Aby było to możliwe, musiał jednak przejść odpowiedni trening, w czasie którego system uczenia maszynowego zapamiętywał, w jaki sposób przekładać aktywność jego mózgu na konkretne działania (np. na wybieranie poszczególnych klawiszy na klawiaturze smartfona).

Jak przeprowadza się taki trening? Regularnie i systematycznie pracując z interfejsem. Łatwo to wyjaśnić na przykładzie innego projektu BIC, prowadzonego przez Stanford University. Jedno ze swoich przedsięwzięć uczelnia ta realizuje z pacjentami ze stwardnieniem zanikowym bocznym (amyotrophic lateral sclerosis, ALS), którzy w następstwie choroby utracili kontrolę nad aparatem mowy i nie są w stanie prawidłowo formułować głosek oraz werbalnie się porozumiewać. Zamysłem projektu jest przywrócenie im tej umiejętności. Pierwszym etapem zmierzającym do tego celu było ustalenie, które rejony mózgu są w trakcie mówienia najbardziej aktywne. Drugim – wszczepienie w tę okolicę precyzyjnego czujnika, który odczytuje pracę poszczególnych grup neuronów. Tak przygotowany pacjent jest proszony o symulowanie mowy. Na przykład, na ekranie wyświetla się napis „dzień dobry”, a następnie jest on przetwarzany na syntetyzowany z komputera głos, który mówi „dzień dobry”. Zadanie pacjenta polega na wypowiedzeniu tego samego sformułowania w myślach. Sensor znajdujący się w jego mózgu odczytuje wzorzec aktywności nerwowej i przekazuje go uczeniu maszynowemu, które zapamiętuje schemat pobudzenia neuronów. Gdy czynność ta jest powtarzana z odpowiednią częstotliwością i starannością, osoba wyposażona w BIC może odwrócić proces. Wypowiada w myślach jakieś słowa, a komputer przekształca je w wyświetlający się na ekranie napis, który może być odczytany na głos przez syntetyzator mowy.

Pacjentką, która już teraz korzysta z tego rozwiązania, jest 69-letnia Pat Bennett, u której przed kilkunastoma laty zdiagnozowano ALS. Postęp choroby pozbawił kobietę władzy nad mięśniami ust, języka i żuchwy, dlatego od marca 2022 r. bierze ona udział w testach klinicznych prowadzonych na Stanfordzie. Jaka jest tu efektywność? Już po czteromiesięcznym treningu Bennett była w stanie wypowiedzieć ok. 64 słów na minutę. Pomyłki systemu i jego „przejęzyczenia” są nadal jednak dość powszechne (ok. 25 proc. wypowiedzi zawiera jakieś błędy). Mimo to Jaimie Henderson, neurochirurg przeprowadzający zabiegi wszczepienia implantów mózgowych na Stanford University, uważa, że postęp technologiczny i doskonalenie treningów sprawią, że podobne rozwiązania wkrótce staną się znacznie skuteczniejsze oraz powszechniejsze. Jest zdania, że osoby chorujące na ALS będą mogły korzystać z podobnych interfejsów w swoich domach (a nie w laboratorium, pod czujnym okiem zespołu specjalistów) już za ok. 5–10 lat.

Równie optymistyczne jest podejście uczonych z UC San Francisco oraz UC Berkeley, którzy pracują m.in. z osobami z zespołem zamknięcia. Jedną z takich pacjentek jest Ann Johnson, która w wieku 30 lat doznała udaru pnia mózgu. W efekcie straciła władzę nad swoim ciałem, początkowo nie była nawet w stanie prawidłowo oddychać. Intensywna rehabilitacja przywróciła częściową kontrolę nad niektórymi mięśniami – obecnie Johnson jest np. w stanie uśmiechnąć się – ale jej aparat mowy pozostaje nieaktywny. Pacjentka trenowała wypowiadanie słów w myślach oraz intencję mówienia w podobny sposób jak Pat Bennett. Obecnie jest w stanie „mówić” w tempie ok. 80 słów na minutę, czyli prawie 6 razy szybciej, niż kiedy używała starszej technologii (bazującej nie na odczycie aktywności samego mózgu, lecz na śledzeniu ruchu gałek ocznych, które skupiały się na określonych klawiszach klawiatury wyświetlonej na ekranie).

AI nadaje sygnał

We wszystkich opisanych przypadkach informacja przepływa przede wszystkim od człowieka do maszyny. To mózg dyktuje programowi, jakie głoski ma syntetyzować. To on uczy system, jak aktywność neuronów przekłada się na poszczególne słowa. Podobnie jest w filmie „Atlas”, gdzie bohaterowie połączeni neurozłączem ze swoimi maszynami mogą przekazać im intencje, przemyślenia czy wspomnienia nie tylko za pomocą komunikacji werbalnej, lecz także udzielając im dostępu do swoich myśli. W tym dziele (aż chce się dodać cudzysłów) science fiction przekaz sygnałów zachodzi również w drugim kierunku. Sztuczna inteligencja może wpływać np. na to, co połączony z nią człowiek widzi. I tego typu rozwiązania wdrażane są powoli w rzeczywistości.

Jednym z takich projektów jest prowadzony na UC Santa Barbara „Smart Bionic Eye”. Otrzymał wsparcie od NIH (National Institutes of Health) – amerykańskiej rządowej instytucji zajmującej się ochroną zdrowia i badaniami biomedycznymi. Wśród pacjentów biorących udział w testach klinicznych jest Jason Esterhuizen, który w wieku 23 lat uległ wypadkowi samochodowemu, wskutek którego stracił wzrok. Mężczyzna poddał się operacji wszczepienia implantu mózgowego przekazującego dane na temat otoczenia wprost do kory wzrokowej. Informacje pochodzą od urządzeń zewnętrznych, przede wszystkim – z mikrokamery zainstalowanej na specjalnych okularach.

Sygnały wzrokowe, które są przesyłane do mózgu Esterhuizena, w niczym nie przypominają bodźców przekazywanych przez prawdziwe oko. Mężczyzna nie postrzega kolorów, nie rozpoznaje precyzyjnie kształtów. Dobrze widzi zaś kontrasty, dlatego zorientuje się, gdy na jego drodze pojawi się człowiek, drzewo lub samochód. Jest też bardzo czuły na ruch: na zmiany wyglądu otoczenia, co jest istotne z punktu widzenia bezpieczeństwa (dzięki temu zobaczy, że w jego stronę jedzie rozpędzona hulajnoga lub leci piłka).

I to jest ważna myśl, do której powinniśmy przywyknąć: rzeczywistość referowana człowiekowi przez maszynę nie zawsze jest i nie musi być wierną kopią „organicznej” percepcji. „Potrzeby osób niewidomych są zupełnie inne, niż wyobrażają to sobie widzący” – zauważa w materiale stworzonym przez NIH Lucas Gil Nadolskis, doktorant w laboratorium bionicznego wzroku na UC Santa Barbara. Gdy był półrocznym niemowlęciem, zdiagnozowano u niego siatkówczaka – złośliwy nowotwór, który we wczesnym dzieciństwie doprowadził do całkowitej utraty wzroku. Badacz ten podkreśla, że dla osoby niewidomej, która chciałaby posiadać bioniczne oczy, liczy się przede wszystkim to, by dostrzegać bariery stawiane na drodze przez osoby pełnosprawne. Dlatego orientowanie się, gdzie znajduje się stopień lub znak drogowy może być znacznie ważniejsze, niż oglądanie tęczy.

To zresztą prowadzi do kolejnej refleksji. Percepcja maszynowa może bardzo różnić się od tej biologicznej. W jaki sposób zostanie to wykorzystane przez osoby, które nie chcą za pomocą BIC przywracać utraconych funkcji, lecz pragną zwiększać sprawność ludzkiego ciała? Jeśli implanty mózgowe będą się stawały coraz lepsze i bardziej dostępne, to należy się spodziewać, że znajdzie się mnóstwo pełnosprawnych osób, które np. zechcą połączyć swoją percepcję z możliwościami AI z czystej ciekawości. Dziś takie próby są dokonywane jedynie w bardzo powierzchownej, nieco nieudolnej odsłonie (patrz: „Artyści wszczepiają sobie urządzenia, żeby zyskać nowe zmysły. Ma to sens?”). Przede wszystkim dlatego, że precyzyjne implantacje domózgowe wymagają ogromnych umiejętności neurochirurgicznych i gigantycznego zaplecza techniczno-medycznego, które umożliwiłoby przeprowadzenie skomplikowanej, zwykle kilkunastogodzinnej operacji. Na takie procedury medyczne potrzebne są odpowiednie pozwolenia (np. w ramach prowadzenia zatwierdzonych testów klinicznych). A tych na chwilę obecną nie przydziela się osobom, które chcą grzebać w mózgu z czystej fantazji. Na zapleczu salonu piercingu da się więc wszczepić podskórnie magnes czy prostą elektrodę, ale nie da się (jeszcze!) wprowadzić do mózgu wielofunkcyjnego chipa.

AI usprawnia ciało

To, że technologia nie musi wcale naśladować biologii (a zamiast tego może ją rozszerzać) widać nawet po prostszych połączeniach typu człowiek-maszyna. Czyli po bionicznych protezach kończyn. Potrafią być one wytrzymalsze, bardziej efektywne i sprawniejsze, niż organiczne nogi czy ręce (np. umożliwiają obracanie nadgarstkiem o 360 stopni). Nie wszystkie implanty wymagają podpięcia do samego mózgu, niektóre wystarczy zintegrować z obwodowym układem nerwowym. Takie rozwiązanie stosują np. uczeni z University of Michigan pracujący z osobami, które utraciły kończyny. Pacjenci ci zwykle posiadają przynajmniej część nerwów, które kiedyś służyły do sterowania ręką czy nogą. Do tych przerwanych połączeń można podpiąć system sterujący bioniczną kończyną. Najpierw jednak trzeba rozwiązać kilka problemów.

Jeden dotyczy siły sygnału. Obwodowe nerwy są bardzo niewielkie i emitują niezwykle słabe komunikaty, które łatwo ulegają zakłóceniom. Uczonym trudno jest odróżnić sensowny sygnał (np. „zegnij rękę”) od towarzyszącego mu szumu. Dlatego zespół z Michigan postanowił pracować na wzmocnionym przekazie. W tym celu podpiął pod zakończenia nerwowe fragmenty tkanki mięśniowej. Sygnały pochodzące z mięśni są bardzo „głośne” i wyraźne, dlatego wszczepienie kawałka tej tkanki na zakończeniu neuronu działa jak tuba wzmacniająca. Taki organiczny amplifikator umożliwia komputerowi nauczenie się wzorców sterujących ręką i przełożenie ich na ruch bionicznej protezy. Po odpowiednim treningu osoba jest w stanie poruszać protezą tylko za pomocą swojej myśli, czy intencji działania. Takie rozwiązania można potem rozwijać w wielu kierunkach i dodawać do nich nowe „nakładki”. Na przykład, w lutym tego roku uczeni z École Polytechnique Fédérale de Lausanne opracowali sensory termalne, które można podpinać pod istniejące protezy i integrować ich działanie bez konieczności przeprowadzania kolejnej interwencji chirurgicznej. Dzięki temu pacjent może czuć sztuczną ręką zimno lub ciepło, a także odróżniać od siebie niektóre materiały.

Systemy człowiek-maszyna mogą omijać nie tylko mózg, ale nawet same nerwy obwodowe. Na przykład, koreańscy uczeni opracowali w zeszłym roku nakładkę, która sczytuje informacje na temat aktywności samych mięśni, a nie neuronów. Nakleja się ją na ciało niczym plaster (jest zresztą jego wielkości), by zbierała dane dotyczące pracy mięśni podczas wykonywania różnych czynności (np. przysiadów czy podnoszenia ciężkich przedmiotów). Nauczona wzorca pobudzeń mięśniowych, może stanowić łącznik pomiędzy ciałem człowieka a egzoszkieletem, który – jak wykazano – odciąża układ ruchu o ok. 18 proc.

Wygląda na to, że rzeczywistość dogoni wizję integracji człowiek-maszyna eksplorowaną w „Atlas” (w każdym razie – jeśli jej na to pozwolimy). Akcja filmu rozgrywa się w latach 70. XXI wieku, czyli za ok. 50 lat. Do tego czasu ludzkość prawdopodobnie zaprosi sztuczną inteligencję nie tylko do swoich domów, ale też ciał – w tym mózgów. Mam w tym kontekście prośbę. Jeśli ten tekst czyta ktoś, kto za kilkadziesiąt lat przyczyni się do rozwoju neurozłącz, niech nie wyglądają one, jak aparat słuchowy, który powstał w lunaparku. I niech nie będą wkłuwane tuż za uchem, bo tam znajduje się wyrostek sutkowy kości skroniowej – dość gruba i porowata struktura, która daje bardzo słabe możliwości w zakresie dostępu do mózgu. A stan zapalny w tej lokalizacji może bardzo boleć. Choć nie tak bardzo, jak zmarnowana szansa na dobry film zbierający w jednym kadrze JLO i dużo robotów.