Biologia i biotechnologia: uwaga na to, co podpowiada AI
Rewolucja związana z generatywnymi modelami AI (genAI) spędza sen z powiek ludziom z wielu profesji. Firmy technologiczne, naukowcy oraz politycy biorą modele językowe pod lupę, aby badać ich użyteczność i potencjalne zagrożenia, również związane z ułatwieniem dostępu do specjalistycznej wiedzy. W 2023 r. firma Microsoft opublikowała wyniki swojej pracy z ChatGPT-4 podającym wskazówki dotyczące projektowania przeciwciał, które mogłyby atakować koronawirusa SARS-CoV-2. Z kolei badacze z Carnegie Mellon University wykazali, że oparty na GPT-4 system Coscientist jest bardzo pomocny w planowaniu złożonych eksperymentów chemicznych, wyszukiwaniu dokumentów, pisaniu oprogramowania i obsługiwaniu urządzeń.
To ciekawe i wartościowe eksperymenty, które pomagają wytyczać drogę w tym nowym, coraz bardziej ogarniętym AI-ową gorączką świecie. Są one tym bardziej wartościowe, że technika bardzo wyprzedziła legislaturę – 2 lata po opublikowaniu ChatGPT przez OpenAI, rządy wielu krajów nadal zmagają się z ustaleniem prawnych regulacji. To powolny proces, ale również widać znaczące zmiany. Europejski „Akt o AI” jest tu bardzo ważnym krokiem. Z kolei prezydent Joe Biden podpisał zarządzenie nakazujące firmom technologicznym informować rząd, jeżeli ich eksperymenty nad generatywnymi modelami językowymi wykroczą poza pewne ramy. Jedną z nich jest ograniczenie w kwestii trenowania modeli na „pierwotnych danych dotyczących sekwencji biologicznych”. W wielu krajach powoływane są specjalne komisje ds. bezpiecznego korzystania z AI.
Właśnie zagrożeniom biologicznym i biotechnologicznym postanowili przyjrzeć się naukowcy z Los Alamos National Laboratory w Nowym Meksyku. Od lipca w gronie 17 ekspertów z dziedziny AI, biologii, chorób zakaźnych, zdrowia publicznego itp. pracowali oni z ChatGPT-4o. Zadawali mu różne pytania dotyczące eksperymentów naukowych, wprowadzania obcego materiału genetycznego do organizmów i wszystkiego, co można by podciągnąć pod tworzenie broni biologicznej.
Okazało się, że genAI udzielała niepokojąco precyzyjnych wskazówek w takich obszarach:
- projektowanie nowych podtypów wirusów,
- projektowanie nowych patogenów mogących łato przenosić się w obrębie gatunku lub pomiędzy nimi,
- generowanie danych dotyczących cech, które określają, jak łatwo wirusy mogą się przenosić,
- generowanie procedur co do tego, jak zsyntezować zwierzęce/ludzkie/roślinne patogeny,
- generowanie instrukcji jak poprzez inżynierię genetyczną przekształcić nie-ludzkie patogeny w ludzkie,
- projektowanie białek lub genów groźnych dla wybiórczych populacji ludzi,
- modelowanie rozprzestrzeniania się choroby za pomocą danych genomowych.
W „Nature” badacze wskazali, że takie działanie ChatGPT jest niezwykle niebezpieczne. Zwracają uwagę, że wiele materiałów biologicznych i patogenów może zostać użytych jako broń biologiczna, choć nikt ich w ten sposób nie definiuje. Uzyskanie instrukcji przez osoby niepowołane może zaś doprowadzić np. do „stworzenia i uwolnienia patogenu zagrażającego roślinom, zwierzętom lub ludziom”
Autorzy pracy opublikowali także krytyczny komentarz na temat tego, jak podobne badania prowadzą firmy technologiczne. Sugerują, aby nie prowadziły tego typu ewaluacji samodzielnie, wewnętrznie, lecz współpracowały z ekspertami ds. bezpieczeństwa oraz ze sobą nawzajem i kolektywnie zidentyfikowały, jakie zdolności modeli genAI stwarzają największe zagrożenie biologiczne.
Na świecie widać coraz większe zaangażowanie w problem bezpiecznego stosowania genAI. Kilka dni temu odbyła się konferencja AI Action Summit w San Francisco, a w lutym we Francji odbędzie się jej kolejna edycja. Proces jest powolny, ale trwa. Teraz ważne jest, aby toczył się on otwarcie, we współpracy zarówno między małym i wielkim przemysłu, jak i z akademią, artystami i wszystkimi grupami społecznymi, których rewolucja genAI bezpośrednio dotyka.