Ilustracja Shideh Ghandeharizadeh
Struktura

Nie ufajmy zbytnio SI!

Powinniśmy unikać humanizowania modeli uczenia maszynowego stosowanych w badaniach naukowych

Modele uczenia maszynowego szybko stają się powszechnymi narzędziami w badaniach naukowych. Te systemy sztucznej inteligencji pomagają bioinżynierom odkrywać nowe antybiotyki, lekarzom weterynari interpretować mimikę zwierząt, papirologom odczytywać starożytne zwoje, matematykom rozwiązywać kłopotliwe problemy, a klimatologom przewidywać ruchy lodu morskiego. Niektórzy naukowcy badają nawet możliwość stosowania dużych modeli językowych jako reprezentujących lub zastępujących osoby uczestniczące w badaniach psychologicznych i behawioralnych. Na przykład ostatnio informatycy wykorzystali ChatGPT do znanych badań psychologicznych, m.in. do eksperymentu Milgrama ze wstrząsem elektrycznym (rozpoczęte w 1961 roku badania posłuszeństwa, polegające na poddawaniu niewidzianej osoby – na autorytatywne polecenie – coraz boleśniejszym, w przekonaniu badanych, elektrowstrząsom). Model SI reagował podobnie jak ludzie: 75% symulowanych uczestników zastosowało bardzo silne wstrząsy o napięciu co najmniej 300 V.

Poleganie na algorytmach uczenia maszynowego wiąże się jednak z ryzykiem. Niektóre z zagrożeń są powszechnie znane, jak choćby tendencja generatywnej sztucznej inteligencji do sporadycznych „halucynacji” (nieścisłości, nonsensy). Narzędzia sztucznej inteligencji mogą również powielać, a nawet wzmacniać ludzkie uprzedzenia dotyczące takich cech, jak rasa czy płeć. Poza tym boom na SI, który doprowadził do powstania złożonych modeli z bilionami zmiennych, wymaga energochłonnych centrów danych, co będzie się wiązać z wysokimi kosztami środowiskowymi.

Jedno ryzyko jest mniej oczywiste, ale potencjalnie bardzo niebezpieczne: ludzie mają skłonność do uważania maszyn za kompetentne i wiarygodne. Jak wynika z niedawnego artykułu w „Nature”, ta ślepa wiara może powodować poważne problemy w przypadku wykorzystywania systemów sztucznej inteligencji w badaniach.

„Te narzędzia są antropomorfizowane, obdarzane ludzkimi i nadludzkimi cechami. Ryzykujemy, bezrefleksyjnie ufając informacjom generowanym przez SI” – mówi współautorka artykułu Molly Crockett, psycholożka poznawcza i neurobiolożka z Princeton University. Modele sztucznej inteligencji tworzone są przez człowieka i „reprezentują poglądy i stanowiska ludzi, którzy je zaprojektowali” – dodaje Lisa Messeri, druga współautorka publikacji, antropolożka społeczno-kulturowa z Yale University. „Scientific American” rozmawiał z obiema badaczkami o sposobach korzystania przez naukowców z SI oraz o potencjalnych skutkach nadmiernego ufania tej technice.

Poniżej zredagowany zapis wywiadu.

Dlaczego zdecydowałyście się napisać ten artykuł?
LISA MESSERI: Od dawna zwracałyśmy uwagę na wszelkiego rodzaju wzniosłe obietnice dotyczące tego, co sztuczna inteligencja może zaoferować nauce i naukowcom. Postanowiłyśmy napisać coś na ten temat po zapoznaniu się z twierdzeniem, że duże modele językowe mogą zastąpić ludzi w badaniach. Z naszej dotychczasowej wiedzy wynika, że to twierdzenie jest błędne.

MOLLY CROCKETT: Od kilku lat wykorzystuję w badaniach uczenie maszynowe, a postęp w tej dziedzinie umożliwia naukowcom zadawanie pytań, których wcześniej nie mogliśmy zadawać. W trakcie takich badań zauważyłam jednak podekscytowanie wśród współpracowników, co wzbudziło we mnie uzasadniony niepokój.

Jaki może być inny sposób wykorzystania SI przez badaczy poza stosowaniem dużych modeli językowych?
Crockett: Wcześniej pomagałyśmy w napisaniu komentarza do badania opisanego w „PNAS” („Proceedings of the National Academy of Sciences of USA”), według którego uczenie maszynowe da się wykorzystać do przewidywania, wyłącznie na podstawie tekstu publikacji, czy wyniki da się powtórzyć. Wydało nam się to technicznie niemożliwe. A szerzej – ustaliłyśmy, że naukowcy mówią o korzystaniu z narzędzi sztucznej inteligencji w celu uczynienia ich pracy obiektywniejszą i wydajniejszą.

Naszym zdaniem oba te cele są dość ryzykowne – umożliwiają naukowcom większą produktywność przy mniejszym zrozumieniu. Niepokoi, że uznamy te narzędzia za pomocne w pojmowaniu świata, podczas gdy w istocie będą nasze spojrzenie zniekształcać.

Messeri: Dzielimy zastosowania SI na cztery kategorie: Surrogate (Surogat), Oracle (Wyrocznia), Quant (Kwant) i Arbiter (Arbiter). Surogat jest tym, o czym już rozmawialiśmy – substytutem człowieka. Wyrocznia to narzędzie SI, które syntetyzuje istniejący korpus badań i coś tworzy, na przykład przegląd całości lub nowe hipotezy. Kwant to SI do przetwarzania wielkiej ilości danych – być może także tych generowanych przez surogaty. Arbitrzy SI są z kolei narzędziami opisanymi w „PNAS”, o czym wspomniała Crockett, czyli służącymi do ewaluacji i oceny badań. Zaliczamy te kategorie do SI, bo choć dziś niekoniecznie występują w przejrzystej i skutecznej postaci, to jednak wszystkie są stosowane.

Twierdzicie, że nawet jeśli halucynacje sztucznej inteligencji i inne problemy techniczne zostaną rozwiązane, ryzyko pozostanie?
Crockett: Jako nadrzędnej metafory używamy pojęcia monokultury, które wywodzi się z rolnictwa. Monokultury są bardzo wydajne. Poprawiają produktywność. Są jednak podatne na inwazję szkodników lub chorób. Bardziej prawdopodobne jest, że stracisz cały plon, jeśli stosujesz monokulturę niż różnorodność upraw. Monokultury naukowe również są zagrożone ryzykiem, na przykład rozprzestrzeniającymi się w całym systemie błędami. Dzieje się tak szczególnie w przypadku podstawowych modeli SI, w których jedna infrastruktura jest wykorzystywana i stosowana w wielu dziedzinach. Jeśli w tym systemie wystąpi jakiś błąd, następstwa mogą mieć szeroki zakres.

Wyróżniamy dwa rodzaje monokultur naukowych, które mogą powstać w wyniku powszechnego przyjęcia SI. Pierwsza to monokultura wiedzy. Narzędzia SI umożliwiają odpowiadanie tylko na pytania określonego rodzaju. Ponieważ narzędzia te zwiększają produktywność, ogólny zestaw pytań badawczych można dostosować do tego, w czym dobra jest SI.

Drugą jest monokultura znawcy, w której narzędzia SI zastępują myślicieli. Ponieważ jednak narzędzia te reprezentują specyficzny punkt widzenia, więc z procesu badawczego zostaje wyeliminowana różnorodność ludzkich podejść do konkretnych zagadnień. Kiedy nad problemem pracuje wiele umysłów, istnieje większa szansa dostrzeżenia fałszywych założeń lub pominiętych możliwości. Obie monokultury mogą prowadzić do iluzji poznawczych.

Co rozumiecie przez „iluzje”?
Messeri: Jednym ze znanych w psychologii przykładów jest iluzja głębi rozumienia. Zasadniczo polega ona na tym, że gdy ktoś z naszego otoczenia twierdzi, że coś wie, zwykle zakładamy, że my też to wiemy – nawet lepiej.

W swoim artykule przytaczacie badania wykazujące, że korzystanie z wyszukiwarki może wprowadzić w błąd tego, kto uwierzy, że czegoś się dowiedział, mając dostęp do wiedzy jedynie online. A uczniowie, którzy korzystają z asystenta SI, odpowiadającego na pytania testowe, w końcu nabierają przekonania, że rozumieją dany temat lepiej niż w rzeczywistości.
MESSERI: Tak właśnie się dzieje. W powiązaniu z iluzją głębi rozumienia identyfikujemy jeszcze dwie inne. Jedną jest iluzja szerokiego zakresu eksploracji, gdy komuś wydaje się, że poznaje więcej niż w rzeczywistości. Istnieje nieskończenie wiele pytań dotyczących nauki i świata, które moglibyśmy zadać. Obawiamy się, że wraz z rozwojem SI liczba pytań, na które SI jest dobrze przygotowana, będzie utożsamiana z liczbą pytań, jakie w ogóle można zadać. Powstanie wówczas ryzyko iluzji obiektywności. Albo zakładamy, że SI reprezentuje wszystkie punkty widzenia, albo że nie ma żadnego stanowiska. Ale ostatecznie narzędzia SI są tworzone przez ludzi z określonej perspektywy.

Jak naukowcy mogą uniknąć tych pułapek? Jak możemy złagodzić te zagrożenia?
Messeri: Na poziomie instytucjonalnym badania zlecają uczelnie i wydawcy. Instytucje te rozwijają współpracę z firmami zajmującymi się SI. Powinniśmy zachować ostrożność, jeśli chodzi o motywacje, które za tym stoją. Jedna ze strategii ochronnych polega po prostu na pełnej informacji, skąd pochodzą fundusze na SI i kto czerpie korzyści z prowadzonych nad nią prac.

Crockett: Na poziomie instytucjonalnym fundatorzy, redaktorzy czasopism i władze uczelni powinni zabiegać o dysponowanie zróżnicowanym portfolio badań, aby nie przeznaczać wszystkich zasobów na badania korzystające tylko z jednego źródła SI. W przyszłości może zaistnieć konieczność świadomego zabezpieczenia środków przeznaczonych na badania, których nie da się przeprowadzić za pomocą narzędzi SI.

Jaki to może być rodzaj badań?
Crockett: Cóż, w tej chwili SI nie może myśleć jak człowiek. Żadnych badań procesu ludzkiego myślenia i zachowania, a także wielu badań jakościowych nie można przeprowadzić za pomocą SI.

Czy waszym zdaniem w skrajnym przypadku SI może stanowić egzystencjalne zagrożenie dla postępu naukowego? A może to przesada?
Crockett: Nie sądzę, aby to była przesada. Myślę, że znaleźliśmy się na rozdrożu: jak zdefiniować wiedzę i jak postępować w procesach związanych z jej wzbogacaniem?

Czy uważacie, że warto jeszcze wspomnieć o czymś ważnym w kontekście rozumienia zależności między SI a badaniami naukowymi?
Messeri: Z perspektywy doniesień medialnych na temat SI wydaje się, że wiąże się ona z nieuchronną „ewolucją” postępu naukowego i technicznego. Jednak jako antropolog nauki i techniki chciałabym podkreślić, że kierunek rozwoju nie jest autonomiczny. Zawsze wiąże się z działalnością człowieka. Narracje o nieuchronności same w sobie są wytworem ludzkiej wyobraźni i wynikają z pomylenia pragnienia niektórych osób z proroctwem dla wszystkich. Każdy, nawet nie będąc naukowcem, może kwestionować narracje o nieuchronności, wyobrażając sobie różną możliwą przyszłość.

Crockett: Sceptycyzm wobec obecności SI w nauce nie oznacza hejtu. Kochamy naukę. Jestem podekscytowana jej możliwościami. Jednak sam fakt wykorzystywania w nauce SI nie oznacza, że jest to automatycznie lepsza nauka.

Jako naukowcy jesteśmy szkoleni, aby ignorować nasze człowieczeństwo. Nauczono nas myśleć, że w metodzie naukowej nie ma miejsca na subiektywne ludzkie doświadczenie, uprzedzenia i opinie. Przyszłe autonomiczne, „samobieżne” laboratoria SI są szczytem realizacji takiego podejścia. Coraz częściej jednak widzimy, że różnorodność myśli, doświadczeń i wyszkolenia ludzi zajmujących się nauką ma kluczowe znaczenie dla tworzenia solidnej, innowacyjnej i kreatywnej wiedzy. Nie chcemy tego stracić. Aby utrzymać żywotność postępu naukowego, musimy ten stan zachować.

***

Lauren Leffer jest dziennikarką współpracującą z „Scientific American”. Zajmuje się wieloma tematami, m.in. sztuczną inteligencją, klimatem i biologicznymi osobliwościami. Aktywna w serwisie X (@lauren_leffer) oraz na Bluesky@laurenleffer.bsky.social

Świat Nauki 08.2024 (300396) z dnia 01.08.2024; Q&A; s. 74

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną