Świat dla robotów
16 lutego 2017 r. Parlament Europejski przegłosował rezolucję w sprawie zmian dostosowujących prawo cywilne do wyzwań związanych z rozwojem robotyki. Są to wyzwania trudne intelektualnie, ponieważ wymuszają refleksję nad fundamentami praw podstawowych, takich jak godność ludzka, równość, sprawiedliwość, równouprawnienie, brak dyskryminacji, autonomia, odpowiedzialność i prywatność.
Dyskusja, którą spróbowano zainicjować przy okazji rezolucji, obejmuje szereg ogólnych zagadnień, w tym między innymi uregulowanie technologicznych uwarunkowań świadomości, etyki, odpowiedzialności i prawa do pracy.
Podjęcie rozstrzygnięć w temacie robotyki i sztucznej inteligencji uznano za pilne i niezbędne ze względu na rosnącą dynamikę rynku. Zgodnie z danymi przytoczonymi w projekcie rezolucji sprzedaż robotów w Europie wzrosła w 2014 r. o 29%. W ostatniej dekadzie w państwach Unii Europejskiej zanotowano trzykrotny wzrost liczby wniosków patentowych w dziedzinie robotyki. Spora część przemysłu europejskiego wprowadziła roboty do produkcji. Firmy motoryzacyjne coraz odważniej testują autonomiczne samochody, roboty pojawiają się w przestrzeni publicznej. Pewnie dlatego projektem oprócz Komisji Prawnej PE zajęło się sześć innych komisji parlamentarnych. Komisja Prawna głosowała w styczniu 2017 r. za przyjęciem projektu po niewielkich zmianach, ale warto odnotować, że raport, który przy okazji sporządzono na jej zamówienie, jest wobec niektórych wniosków jednoznacznie krytyczny.
Roboty pracują za ludzi
Już wprowadzenie do rezolucji, jak na dokument o znaczeniu prelegislacyjnym, brzmi dosyć zaskakująco. W pierwszych zdaniach przywołuje literackie postacie Frankensteina, Pigmaliona i Golema, a w dalszej części proponuje skorzystanie ze słynnych praw robotyki Asimova zaczerpniętych z opowiadania opublikowanego w 1942 r. („Zabawa w berka”, w oryginale „Runaround”). Autorzy wspomnianego raportu krytycznie komentują ten wątek. Pozyskiwanie społecznej akceptacji dla robotyki jest niezbędne, by rozwinął się rynek i badania technologiczne, ale nie powinno się opierać się o nieco przesadzone na razie wyobrażenia lub obawy co do autonomicznych zdolności robotów, szczególnie w dziedzinach, w których będą zastępować ludzi.
Nawet jeżeli wiemy, że sztuczna inteligencja niekoniecznie zasługuje, by określać ją mianem inteligencji, robotyka może wpłynąć na zanikanie wielu miejsc pracy i niektórych tradycyjnych zawodów. Jest ona zatem postrzegana nie tylko jako źródło korzyści, ale też problemów społecznych. Ze względu na skalę i potencjał zastosowań robotów rynek pracy może nie wchłonąć milionów ludzi poszukujących nowego zajęcia. Potrzebna może być zatem interwencja publiczna, np. programy wsparcia dla pracowników zdobywających nowe kwalifikacje (są już takie dotyczące kompetencji cyfrowych) czy przejściowe okresy ochronne dla niektórych grup.
Rezolucja proponuje wprowadzić definicję robota, co wydaje się niezbędne dla celów legislacyjnych, ale równocześnie zauważa, że mamy do czynienia z szeroką kategorią pojęciową, wymagającą dodatkowych uściśleń i uregulowań. Przykładem są pojazdy autonomiczne w transporcie, w które obecnie intensywnie inwestuje przemysł motoryzacyjny. Do ich rozwoju ewidentnie należy podchodzić systemowo, ponieważ wymagają one dostosowania czy wręcz stworzenia infrastruktury i systemów sterowania, co wiąże się z koniecznością uzgodnienia wielu wymogów standaryzacyjnych. Z kolei prowadzone równolegle prace nad uregulowaniami dronów pokazują, jak wiele zagadnień dotyczących sterowania trzeba rozstrzygnąć, zanim w ogóle dojdzie do dyskusji o autonomii maszyn czy o podejmowaniu przez nie decyzji mogących wpływać na otoczenie. Również roboty medyczne, choć bywają bardzo zaawansowane technologicznie, głównie wspomagają dziś czynności chirurga, a nie zastępują go.
Elektroniczna osobowość
Najwięcej wątpliwości budzi koncepcja nowego rodzaju osobowości prawnej, którą mogłyby uzyskać roboty po osiągnięciu świadomości. Już samo stwierdzenie świadomości robota może nastręczać problemów, skoro czasem trudno jej dowieść w postępowaniu dowodowym w stosunku do działań ludzi. Poza tym osobowość prawna, teoretycznie przydatna do określania odpowiedzialności samouczącej się maszyny, wiąże się niejako automatycznie z przypisaniem praw i obowiązków. Jakimi prawami można obdarzyć robota? Chyba nie prawem do życia, czyli do jego niedemontowania i nieprzeprogramowania. Czy robot mógłby odmówić działania, które mogłoby spowodować jego uszkodzenie? Musielibyśmy się też uporać z tym, że nasze prawa i obowiązki mają ścisłe powiązania z ludzką moralnością.
Projekt rezolucji jest w tej kwestii częściowo niekonsekwentny, bo proponuje też w innym miejscu, co wydaje się właściwsze, odpowiedzialność na zasadzie ryzyka. Przywołuje też wypróbowaną wielokrotnie dyrektywę 85/374/EWG o wyrobach wadliwych. Pierwszym krokiem mogłoby być ewentualne dostosowanie dyrektywy, w oparciu o analizę przypadków.
Etyka robotów
Przywołanie w projekcie rezolucji praw Asimova dla robotyki jest o tyle osobliwe, że są one skierowane jakby do samych robotów. Świadome roboty mają wiedzieć, że nie wolno krzywdzić ludzi. Natomiast nam potrzebne są uregulowania dotyczące działania robotów w naszym otoczeniu, które ułatwią ich rozwój i użyteczne zastosowania w różnych dziedzinach. Autorzy rezolucji wydają się jednak pozostawać w stylistyce świata science-fiction, bo zaproponowali załączenie do niej zbioru kodeksów etycznych: dla inżynierów, komitetów etycznych, projektantów, a nawet dla użytkowników. To dosyć ryzykowne, bo znaczenie normatywne tak wprowadzonych zasad jest dosyć słabe. Inaczej jest z tego rodzaju kodeksami zasad lub dobrych praktyk formułowanych jako inicjatywy oddolne przez zainteresowane środowiska. Właściwie tylko wtedy można by mówić o odpowiedzialności w związku z naruszeniami.
To oczywiście nie znaczy, że próby formułowania zasad etycznych są bezprzedmiotowe. Mamy do czynienia z technologiami przełomowymi, gdzie skutki wprowadzania norm i uregulowań są trudne do przewidzenia. Oczywiście nie należy hamować rozwoju rynku, ale zapotrzebowanie na zasady daje się wyraźnie odczuć.
Na przykład niezbędne jest ustanowienie generalnej zasady, że robot musi respektować prawo osoby ludzkiej do podejmowania autonomicznej decyzji. To oznacza, że człowiek powinien zawsze móc zobowiązać robota do posłuszeństwa. Kiedy dochowanie tej zasady wiązałoby się z pewnym ryzykiem, np. względami bezpieczeństwa, konieczne jest wprowadzenie szeregu środków zapobiegawczych. Jeżeli otrzymany rozkaz może wywołać zagrożenie użytkownika lub trzeciej strony, robot powinien w pierwszym rzędzie zaalarmować w sposób zrozumiały dla użytkownika, to znaczy dostosowany do jego zdolności percepcyjnych.
Roboty, których zadaniem jest bezpośrednia interakcja z człowiekiem, np. roboty opiekuńcze, które mają pomagać ludziom starszym, często wyposaża się cechy mające wzbudzić zaufanie. Mają twarz dziecka lub wręcz są to konstrukcje humanoidalne lub przypominające zwierzęta. Wywołują empatię, zaufanie, chęć zaprzyjaźnienia się, tyle że w sposób całkowicie sztuczny. Potrzebne są zatem standardy etyczne zabezpieczające przed manipulacją osoby potencjalnie bardziej podatne, jak osoby starsze, chore, niepełnosprawne umysłowo, dzieci itp.
Człowiek powinien móc też odmówić bycia obsługiwanym przez robota lub obsługa taka powinna być uzależniona od zgody człowieka.
Liczba sytuacji, które należy przewidzieć, jest długa. Jeżeli jednak roboty pewnego dnia rzeczywiście zyskają świadomość, a równocześnie będą silniejsze, szybsze, inteligentniejsze, dokładniejsze, prawie nieśmiertelne, to musimy być na to przygotowani.
Piotr Rutkowski, praktyka prawa nowych technologii kancelarii Wardyński i Wspólnicy