I nie będziesz naśladował twórcy swego
Prawa Robotyki to podstawowe zasady postępowania robotów, zaproponowane przez pisarza science fiction Isaaca Asimova w latach 40. XX w. W pierwotnej formie brzmią:
- Robot nie może skrzywdzić człowieka, ani przez zaniechanie doprowadzić do jego krzywdy;
- Robot musi słuchać rozkazów wydawanych przez człowieka, o ile nie stoi to w sprzeczności z Pierwszym Prawem;
- Robot musi chronić samego siebie, o ile nie stoi to w sprzeczności z Pierwszym i Drugim Prawem.
Zasady te pojawiły się w „Zabawie w berka” („Runaround”, 1942), a rozwinięte zostały w innych opowiadaniach, które ostatecznie znalazły się w zbiorze zatytułowanym „Ja, robot” („I, robot”, 1950). Szybko stały się integralną częścią literackiego uniwersum Asimova, stanowiąc punkt wyjścia dla jego rozważań nad etyką i funkcjonowaniem sztucznej inteligencji.
Rozwijając swoją koncepcję, Asimov wielokrotnie testował Trzy Prawa w różnorodnych sytuacjach fabularnych, co nie tylko uwidoczniło ich elastyczność, lecz także zainspirowało do wprowadzania modyfikacji. Badacz literatury science fiction James Gunn zauważył, że roboty Asimova „zagrały aż dwadzieścia dziewięć wariacji na ten sam temat”, wskazując, jak wiele problemów i dylematów potrafił pisarz wygenerować z pozornie prostego kodeksu etycznego.
Jednym z najbardziej znanych przypadków modyfikacji Pierwszego Prawa jest opowiadanie „Zaginiony robot” („Little Lost Robot”, 1947). W jego fabule pojawiają się roboty typu NS-2 (zwane „Nestorami”), którym usunięto fragment zapisu mówiący o niedopuszczaniu do krzywdy człowieka poprzez zaniechanie. Powodem było praktyczne wyzwanie: roboty współpracujące z ludźmi w strefach o niskim promieniowaniu ulegały uszkodzeniom, próbując ratować tych, którzy w istocie nie znajdowali się w bezpośrednim niebezpieczeństwie. Usunięcie klauzuli o „zaniechaniu” rozwiązywało problem nadmiernej troski robotów, ale jednocześnie stwarzało potencjalne ryzyko, że maszyna świadomie pozwoli na wyrządzenie krzywdy człowiekowi, jeśli uzna, że nie musi interweniować.
Bez ciał, bez maszyn – wirtualne zagrożenie
Trzy Prawa Robotyki Asimova – zaprojektowane, by zapewnić harmonię między ludźmi a robotami – są jednocześnie wizjonerskie i ograniczone. Pierwsze zakłada jasno zdefiniowaną, powszechnie akceptowaną definicję szkody oraz jednoznaczną hierarchię ludzkich potrzeb. W praktyce pojęcia te są silnie zależne od kontekstu i mogą prowadzić do dylematów etycznych, na przykład w sytuacji wyboru między natychmiastowym bezpieczeństwem fizycznym a szerszym, długoterminowym dobrem. Co więcej, wdrożenie Pierwszego Prawa wymaga od robotów interpretowania i przewidywania ludzkich intencji oraz konsekwencji społecznych, co może wykraczać poza obecne możliwości technologiczne. Takie uproszczenie stwarza ryzyko nieprzewidzianych konsekwencji, gdy roboty kierują się krótkoterminowymi dyrektywami, nie biorąc pod uwagę złożonych uwarunkowań społeczno-etycznych.
Drugie i Trzecie Prawo dodatkowo komplikują kwestie etyczne. Zakładają istnienie jasno zdefiniowanej hierarchii władzy i nie uwzględniają możliwych konfliktów między indywidualnymi rozkazami a dobrem całej ludzkości. Na przykład: czy robot powinien przedkładać instrukcje autorytarnej jednostki nad demokratyczny konsensus lub bezpieczeństwo ogółu? Ponadto, mechanizmy samozachowawcze mogą stać w sprzeczności z priorytetami ukierunkowanymi na człowieka, zwłaszcza w sytuacjach kryzysowych, w których poświęcenie robota mogłoby uratować ludzkie życie. Prawa te odzwierciedlają również antropocentryczne spojrzenie, pomijając szersze kwestie etyczne dotyczące ekosystemów czy podmiotów nieludzkich. Choć ramy Asimova były innowacyjne w swoich czasach, dziś wymagają przemyślenia i uzupełnienia.
Przez lata proponowano różnorakie modyfikacje „tetralogu” Asimova. Lyuben Dilov w powieści „Droga Ikara” („Пътят на Икар”, 1974) zaproponował czwarte prawo: „Robot musi w każdej sytuacji ujawniać swoją tożsamość jako robota”). Proponowano także wymóg świadomości własnej natury („Robot musi wiedzieć, że jest robotem” – piąte prawo Nikoli Kesarovskiego). Harry Harrison sugerował rozszerzenie w postaci zasady mówiącej o konieczności „rozmnażania się” robotów, o ile nie kłóci się to z poprzednimi prawami. Hutan Ashrafian natomiast proponował tzw. „prawo AIonAI”, nakazujące robotom obdarzonym ludzkim poziomem rozumowania i sumienia traktowanie się wzajem z braterstwem. Wszystkie te propozycje, choć ciekawe, koncentrowały się jednak przede wszystkim na świecie, w którym wyobrażano sobie fizyczne, humanoidalne maszyny – tymczasem współcześnie znacznie większym wyzwaniem są wirtualne awatary.
Bez kłamstw, bez oszustw – zrównoważona koegzystencja
W dobie błyskawicznego rozwoju AI, zjawisko generowania fałszywych treści oraz podszywania się pod ludzi stało się poważnym problemem. Prawa Robotyki, skoncentrowane głównie na zapobieganiu fizycznej krzywdzie człowieka, muszą więc zostać poszerzone o zasady chroniące nas przed kłamstwem i manipulacją w przestrzeni cyfrowej.
Współczesne AI są w stanie symulować ludzkie mimikę i głos do tego stopnia, że nawet bliscy przyjaciele czy członkowie rodziny mogą zostać łatwo oszukani. Młodzi ludzie coraz częściej tworzą więzi emocjonalne z wirtualnymi agentami, których nie potrafią odróżnić od prawdziwych osób, co już doprowadziło do kilku tragicznych incydentów, włącznie z samobójstwami. Ta nowa rzeczywistość – opisana choćby w książce Stuarta Russella „Kompatybilny z człowiekiem” („Human Compatible”, 2020) czy dostrzegana w unijnym „Akcie o sztucznej inteligencji” – pokazuje, że jawne rozgraniczenie pomiędzy człowiekiem a maszyną jest kluczowe dla utrzymania społecznego zaufania.
Dlatego właśnie uważam, że konieczne jest wprowadzenie Czwartego Prawa Robotyki:
4. Robot nie może wprowadzać człowieka w błąd poprzez udawanie, że jest człowiekiem.
Regulacja ta powinna obejmować m.in. obowiązek ujawniania tożsamości maszyn we wszystkich interakcjach, wyraźne oznaczanie treści generowanych przez AI oraz stworzenie ram prawnych i technicznych gwarantujących wykrywanie i zapobieganie oszustwom. Wymaga to zarówno zastosowania odpowiednich standardów technologicznych, jak i edukacji społecznej w zakresie rozpoznawania manipulacji cyfrowych. Tylko w ten sposób zdołamy utrzymać niezbędną granicę między człowiekiem a inteligentną maszyną, zapewniając jednocześnie postęp i zrównoważoną koegzystencję w erze zaawansowanej współpracy człowieka z AI.