Kto odpowiada za robota? | Co do zasady

Przejdź do treści
Zamów newsletter
Formularz zapisu na newsletter Co do zasady

Kto odpowiada za robota?

Zagadnienie odpowiedzialności za działania robotów znalazło się w samym centrum debaty dotyczącej prawnych aspektów nowych form robotyki. Powiększenie zakresu autonomii maszyn postawiło nas przed koniecznością udzielenia nowych odpowiedzi na najbardziej fundamentalne pytania dotyczące zasad odpowiedzialności.

Podstawowym powodem, dla którego refleksja o zasadach odpowiedzialności nabrała w odniesieniu do robotyki tak dużego znaczenia, jest fakt, że współczesne roboty zaczynają się cechować bardzo daleko posuniętą autonomią w procesie podejmowania decyzji. Coraz większa liczba decyzji jest podejmowana przez roboty bez bezpośredniego udziału człowieka. Decyzje te są oczywiście w dużej mierze zdeterminowane algorytmem, który został wprowadzony do systemu sterowania robota. Mimo to, z uwagi na złożoność okoliczności faktycznych oraz ilość zmiennych, które wpływają na podejmowane decyzje, w wielu przypadkach nie sposób jest przewidzieć konkretnego zachowania maszyny.

Proces ten dobrze ilustruje przykład autonomicznych samochodów. System sensorów umieszczonych w pojeździe dostarcza na bieżąco do systemu sterowania pojazdem olbrzymie ilości danych, które służą do podejmowania przez maszynę określonych działań. Jakkolwiek działania te są podejmowane w oparciu o opracowany wcześniej algorytm, złożoność oraz ilość zmiennych będących podstawą decyzji o wyborze działania powoduje, że ostateczny wybór należy do maszyny i nie sposób go przypisać bezpośrednio którejś z osób zaangażowanych w tworzenie robota (np. autorowi algorytmów lub producentowi poszczególnych części). To maszyna, bez jakiegokolwiek udziału człowieka, decyduje w sposób autonomiczny np. o sposobie ominięcia przeszkody, nagłym hamowaniu czy przyspieszeniu.

Wraz z wejściem robotów w sferę publiczną radykalnie wzrośnie liczba różnych interakcji robotów z ludźmi. Jest oczywiste, że wraz z rozwojem tych interakcji działania robotów będą również wywoływały różnego rodzaju szkody, zarówno na osobie, jak i w mieniu. Powstanie wtedy fundamentalne pytanie o zasady ponoszenia odpowiedzialności za te szkody. Pytanie to jest jak najbardziej zasadne na gruncie prawa cywilnego. Jeszcze bardziej jednak uświadamiamy sobie jego znaczenie w kontekście zasad odpowiedzialności karnej.

Poniższe rozważania są jedynie próbą wprowadzenia do bardzo złożonego zagadnienia odpowiedzialności za działania autonomicznych robotów. Na stopień komplikacji tego zagadnienia wpływa m.in. różnorodność występujących w praktyce robotów oraz zakres ich możliwych zastosowań. Bardzo trudno jest przy takim zróżnicowaniu ustalić jeden uniwersalny model odpowiedzialności.

Odpowiedzialność cywilna

Rozważania dotyczące odpowiedzialności cywilnej ograniczamy jedynie do zasad odpowiedzialności deliktowej oraz odpowiedzialności za produkt niebezpieczny.

Zgodnie z przedstawionymi powyżej uwagami okolicznością, która odróżnia autonomiczne roboty od znanych nam dzisiaj rozwiązań technicznych, jest to, że bezpośrednim powodem wyrządzonej szkody może być zasadniczo autonomiczne działanie maszyny. Związek przyczynowy niezbędny do zaistnienia odpowiedzialności będzie więc istniał przede wszystkim pomiędzy szkodą a działaniem maszyny. W takim przypadku może się okazać, że niemożliwe jest ustalenie związku przyczynowego (nawet pośredniego) pomiędzy szkodą a określonym działaniem człowieka (np. twórcy algorytmu). Stanowi to ogromne wyzwanie dla współczesnego systemu odpowiedzialności cywilnej, który niewątpliwie dąży do ustalenia osoby odpowiedzialnej za szkodę. W przypadku działania wywołanego przez autonomiczne decyzje robota może się to okazać niemożliwe.

W praktyce można sobie wyobrazić znacznie bardziej złożone stany faktyczne. Przykładowo fabryczne uszkodzenie jednego z sensorów robota może skutkować daleko idącą deformacją procesów decyzyjnych robota, co w konsekwencji może spowodować powstanie szkody. Możliwe do wyobrażenia są również sytuacje, w których szkoda jest wynikiem ewidentnych błędów w algorytmie maszyny (np. wprowadzenia do algorytmu autonomicznych pojazdów błędnych założeń dotyczących zasad ruchu drogowego). Nie można również wykluczyć, że działania robota prowadzące w konsekwencji do powstania szkody będą wynikiem włamania do systemu robota i zainstalowania złośliwego oprogramowania. Bardzo skomplikowane stany faktyczne mogą również powstawać w odniesieniu do obecnych już na rynku rozwiązań hybrydowych, które przewidują częściową automatyzację pewnych procesów przy jednoczesnym nadzorze i kontroli człowieka (np. automatyczne systemy wspomagania we współczesnych samochodach lub autopilot w samolotach).

Niewątpliwie brakuje w tej chwili kompleksowego uregulowania zagadnienia odpowiedzialności cywilnej za działania robotów. Nie jest to jednak obszar zupełnie nieuregulowany.

Największe wyzwanie stanowią dla obecnego systemu działania, które są wynikiem w pełni autonomicznych decyzji systemu operacyjnego robota, na których kształt nie wpłynęło nieprawidłowe działanie systemu (np. uszkodzony sensor) ani ewidentne błędy w algorytmie. W przypadku takich działań nie sposób zidentyfikować związku przyczynowego pomiędzy działaniem człowieka a zaistniałą szkodą. Dlatego w odniesieniu do takich szkód nie będziemy mogli wykorzystywać zdecydowanej większości funkcjonujących obecnie instytucji prawnych w zakresie odpowiedzialności. Większość przepisów dotyczących odpowiedzialności jest bowiem oparta na założeniu, że działanie będące źródłem szkody jest działaniem człowieka.

Nie oznacza to jednak automatycznie, że za takie, w pełni autonomiczne, działania robotów, nie będzie można ponosić odpowiedzialności. Już dzisiaj istnieją bowiem w systemie prawa wyjątki, które umożliwiają ponoszenie odpowiedzialności cywilnej za działania, których bezpośrednim sprawcą nie jest człowiek. Dotyczy to przede wszystkim szkód wyrządzonych przez zwierzęta (art. 431 Kodeksu cywilnego). Posiadacz zwierzęcia może ponosić odpowiedzialność za wyrządzone przez nie szkody na zasadzie winy, przy czym przepis ten przewiduje wzruszalne domniemanie winy posiadacza zwierzęcia. Przywołany przepis, przynajmniej w obecnym kształcie, nie będzie mógł oczywiście znaleźć zastosowania do robotów, niemniej jednak warto zastanowić się, czy koncepcja przyjęta w odniesieniu do odpowiedzialności za działania zwierząt nie powinna być punktem odniesienia dla przyszłych regulacji dotyczących odpowiedzialności za działania robotów.

W przypadku, w którym roboty są częścią przedsiębiorstwa, nie można wykluczyć odpowiedzialności przewidzianej w art. 435 Kodeksu cywilnego. Prowadzący na własny rachunek przedsiębiorstwo ponosi odpowiedzialność za szkodę wyrządzoną przez ruch przedsiębiorstwa. Warto jednak odnotować, że prowadzący przedsiębiorstwo może zwolnić się z odpowiedzialności, jeżeli szkoda nastąpiła wyłącznie z winy osoby trzeciej lub z powodu siły wyższej.

W przypadku autonomicznych robotów będących jednocześnie środkami komunikacji zasady odpowiedzialności określa zasadniczo art. 436 Kodeksu cywilnego. Przewiduje on możliwość poniesienia odpowiedzialności przez posiadacza pojazdu na zasadzie ryzyka. Jednocześnie jednak przewiduje okoliczności egzoneracyjne w postaci np. wyłącznej winy osoby trzeciej lub siły wyższej. Warto podkreślić również, że w świetle art. 436 § 2 Kodeksu cywilnego w przypadku zderzenia pojazdów odpowiedzialność ustala się na zasadzie winy, co wyklucza zastosowanie tego przepisu do działań autonomicznych robotów. Niezależnie od powyższego należy zastanowić się, czy ponoszenie przez posiadaczy autonomicznych samochodów odpowiedzialności za wyrządzone przez nie szkody jest rozwiązaniem słusznym. Stopień kontroli posiadaczy tych samochodów nad ich działaniami jest bowiem bez porównania mniejszy niż w przypadku tradycyjnych pojazdów.

Działania robotów zasadniczo już dzisiaj mogą powodować powstanie odpowiedzialności za produkt niebezpieczny. Odpowiedzialność ta będzie spoczywała przede wszystkim na producentach robotów. Warto jednak podkreślić, że do powstania odpowiedzialności za produkt niebezpieczny muszą zaistnieć określone przesłanki. Zgodnie z art. 4491 § 3 Kodeksu cywilnego produktem niebezpiecznym jest produkt niezapewniający bezpieczeństwa, jakiego można oczekiwać, uwzględniając normalne użycie produktu. O tym, czy produkt jest bezpieczny, decydują okoliczności z chwili wprowadzenia go do obrotu, a zwłaszcza sposób zaprezentowania go na rynku oraz podane konsumentowi informacje o właściwościach produktu. Producent nie ponosi odpowiedzialności za produkt, gdy nie można było przewidzieć niebezpiecznych właściwości produktu, uwzględniając stan nauki i techniki w chwili wprowadzenia produktu do obrotu. Można z dużym prawdopodobieństwem założyć, że jeżeli producent robota wykaże, iż algorytm w systemie operacyjnym robota został stworzony z należytą starannością, a wszystkie podzespoły robota działały prawidłowo, będzie mógł zwolnić się z odpowiedzialności za autonomiczne decyzje podejmowane przez robota.

W sytuacjach, w których będzie możliwe zidentyfikowanie adekwatnego związku przyczynowego pomiędzy działaniami robota wyrządzającymi szkodę a działaniami określonych osób (np. twórcy algorytmu lub producenta wadliwego podzespołu), będzie można rozważać również pociągnięcie do odpowiedzialności określonych osób, w tym na zasadzie winy. Tak będzie przykładowo w przypadku ustalenia, że określone działanie robota było spowodowane uszkodzeniem sensora, które z kolei wynikało z braku należytej konserwacji ze strony właściciela robota. Należałoby rozważyć, czy właściciel robota nie powinien ponosić w takiej sytuacji odpowiedzialności na zasadzie winy.

Na szczególną uwagę zasługuje w powyższym kontekście zagadnienie odpowiedzialności twórców aplikacji wykorzystywanych przez systemy operacyjne robotów. Takiej odpowiedzialności nie można z góry wykluczyć. Można sobie bowiem wyobrazić ewidentnie błędny algorytm stworzony w taki sposób, że robot z założenia ma swoimi działaniami naruszać przyjęte zasady postępowania. Jeżeli ten właśnie algorytm stał się bezpośrednią przyczyną szkody wyrządzonej przez robota, trudno znaleźć uzasadnienie dla wyłączenia odpowiedzialności twórcy oprogramowania. Podstawy takiej odpowiedzialności można doszukiwać się w wielu przepisach, w tym w przepisach przewidujących odpowiedzialność na zasadzie winy. Nie można również wykluczyć w takim przypadku odpowiedzialności za produkt niebezpieczny. Jakkolwiek produktem niebezpiecznym mogą być jedynie rzeczy ruchome, to odpowiedzialność za produkt niebezpieczny mogą ponosić również wytwórcy części składowych produktu (art. 4495 Kodeksu cywilnego). Należy zgodzić się z poglądami, które na podstawie przywołanego przepisu prawa dopuszczają możliwość poniesienia odpowiedzialności przez producenta oprogramowania zainstalowanego w rzeczy ruchomej będącej produktem niebezpiecznym.

Z drugiej strony należy podkreślić, że zasadniczo przepisy prawa nie przewidują obecnie kryteriów, które pozwoliłyby obiektywnie ocenić, czy dany algorytm spełnia kryteria należytej staranności czy nie. Oceny w tym zakresie należałoby dokonywać oddzielnie w odniesieniu do każdego analizowanego przypadku, co w oczywisty sposób naraża nas na arbitralność i rozbieżność rozstrzygnięć. Warto w tym kontekście rozważyć wprowadzenie minimalnych wymogów w zakresie tworzenia algorytmów dla robotów, które pozwoliłyby ustalić, czy dany algorytm jest wykonany prawidłowo. W przeciwnym wypadku twórcom algorytmów będą groziły arbitralne rozstrzygnięcia w zakresie ich odpowiedzialności za szkody wywołane działaniem robotów.

Powyższe komentarze prowadzą do wniosku, że obowiązujące w tej chwili przepisy dotyczące odpowiedzialności cywilnej wymagają dostosowania do szkód wyrządzanych działaniami autonomicznych robotów. Wprawdzie część istniejących przepisów będzie mogła być zapewne stosowana w odniesieniu do szkód wyrządzonych przez roboty, jednak bardzo często wiązałoby się to z dużymi wątpliwościami prawnymi, co niewątpliwie nie prowadziłoby do zwiększenia pewności obrotu. Zagadnienie to staje się pilne z uwagi na przewidywany w najbliższych latach radykalny wzrost liczby autonomicznych robotów w przestrzeni publicznej. Dobrze byłoby uniknąć tworzenia incydentalnych regulacji i, zamiast tego, podjąć próbę kompleksowego uregulowania tego zagadnienia.

Niewątpliwie podstawowym motywem podejmowanych działań legislacyjnych powinno być dążenie do zapewnienia skutecznej ochrony podmiotom poszkodowanym działaniami autonomicznych robotów. W tej chwili, w określonych przypadkach, osoby poszkodowane mogą mieć trudność w dochodzeniu roszczeń z tytułu wyrządzonej szkody. Tak będzie w szczególności w przypadku szkód wyrządzonych przez działania autonomicznych robotów, niebędących elementem funkcjonującego przedsiębiorstwa ani pojazdem mechanicznym.

Oczywiście wszelkie działania legislacyjne powinna poprzedzić dogłębna refleksja na temat docelowego modelu odpowiedzialności. Wbrew pozorom nie jest to zagadnienie proste. Z jednej strony, na zasadzie analogii, naturalne wydaje się oparcie odpowiedzialności na zasadach podobnych jak odpowiedzialność za zwierzęta lub odpowiedzialność za ruch pojazdu mechanicznego. Byłaby to odmiana odpowiedzialności opartej na zasadzie ryzyka. Fundamentalne pytanie dotyczy jednak tego, kto miałby ponosić taką odpowiedzialność. Krąg podmiotów, które mogą mieć wpływ na działanie robota, jest bardzo szeroki. W grę mogą wchodzić, co zapewne najbardziej oczywiste, posiadacz robota oraz jego producent. W praktyce jednak bardzo znaczący wpływ na jego funkcjonowanie mogą mieć twórcy aplikacji, dostawcy usług telekomunikacyjnych niezbędnych do prawidłowego funkcjonowania robota, dostawcy danych do systemu operacyjnego robota itd.

Posiadacz robota, z uwagi na daleko posuniętą autonomię robota, może mieć znikomy wpływ na sposób jego działania. Oczywiście należy zapewne założyć, że w większości wypadków to posiadacz będzie decydował o celach użycia maszyny (np. cel jazdy autonomicznego pojazdu), jednak wykonanie powierzonych zadań będzie już w znacznie większym stopniu uzależnione od maszyny. Okoliczności te przemawiają przeciwko narzucaniu na posiadaczy robotów odpowiedzialności opartej na zasadzie ryzyka i stosowaniu analogii do rozwiązań, które znamy w odniesieniu do tradycyjnych pojazdów.

Alternatywnym rozwiązaniem może być przerzucenie odpowiedzialności na producentów robotów. Jednak również stopień kontroli producenta nad faktycznym działaniem robota może być bardzo ograniczony. Autonomia decyzyjna robotów powoduje, że producent nie jest w stanie przewidzieć wszystkich działań robotów. Z kolei w przypadku robotów, które umożliwiają właścicielowi daleko idącą ingerencję w ustawienia fabryczne, w tym w algorytm, przyjęcie tej koncepcji odpowiedzialności może okazać się nieuzasadnione i krzywdzące dla producentów. W konsekwencji producenci mogą dążyć do produkcji robotów z wyłączoną możliwością ich programowania przez użytkowników.

Biorąc pod uwagę powyższe trudności, należy zapewne pogodzić się z tym, że nieuniknione jest przypisanie odpowiedzialności za szkody wywołane działaniami robota podmiotom, które niekoniecznie są w stanie sprawować nad nim pełną faktyczną kontrolę. Z założenia zatem należy przyjąć, że zasadą tej odpowiedzialności będzie ryzyko, a nie wina. Za oparciem odpowiedzialności za działania autonomicznych robotów na zasadzie ryzyka przemawiają również trudności dowodowe. Ustalenie kręgu podmiotów, które ponoszą faktyczną odpowiedzialność za działanie robota, może okazać się niezwykle skomplikowaną i kosztowną procedurą, wymagającą specjalistycznej wiedzy. Przeprowadzanie odpowiednich dowodów może się okazać zadaniem tak trudnym i kosztownym, że w praktyce zamknie osobom poszkodowanym możliwość dochodzenia roszczeń. Pewną próbkę stopnia komplikacji takich spraw daje np. amerykańska sprawa Richardson v. Bombardier, w której sąd musiał rozstrzygać, w jaki sposób wadliwość systemu autopilota zainstalowanego w samolocie przyczyniła się do katastrofy lotniczej.

Oparcie odpowiedzialności na zasadzie ryzyka wiązać musiałoby się zapewne również z koniecznością stworzenia efektywnego systemu ubezpieczeń obowiązkowych w zakresie tej odpowiedzialności. Chodzi o stworzenie osobom poszkodowanym skutecznego i relatywnie prostego sposobu dochodzenia roszczeń odszkodowawczych w związku z działaniami robotów. Taką szansę stwarza właśnie system obowiązkowych ubezpieczeń. Poszkodowany będzie mógł wystąpić z roszczeniem do ubezpieczyciela. Jednocześnie ubezpieczyciel będzie w stanie dochodzić roszczeń regresowych w odniesieniu do podmiotów, które przyczyniły się do wyrządzenia szkody (o ile, oczywiście, takie podmioty będzie można zidentyfikować). Tym samym poszkodowani zostaną zwolnieni z konieczności uczestniczenia w trudnych i wymagających specjalistycznej wiedzy sporach.

Rozwiązanie to niewątpliwie będzie stanowiło duże wyzwanie dla ubezpieczycieli. Na tym etapie rozwoju autonomicznych robotów bardzo trudne może okazać się ustalenie prawdopodobieństwa wystąpienia szkód, z uwagi na brak wystarczających danych. Z drugiej strony należy spodziewać się, że duża część autonomicznych robotów przyczyni się do faktycznego zmniejszenia liczby szkód (takie nadzieje wiąże się przykładowo z autonomicznymi pojazdami).

Odpowiedzialność karna

Możliwość ponoszenia odpowiedzialności karnej za działania robotów stanowi jeszcze większe wyzwanie prawne niż ustalenie zasad odpowiedzialności cywilnej. Niewątpliwie można sobie wyobrazić sytuacje, w których określone działania podejmowane przez roboty będą wyczerpywały znamiona czynów zabronionych. W obecnym stanie prawnym nie może być jednak mowy o ponoszeniu odpowiedzialności karnej przez robota. Odpowiedzialność karna (z wyłączeniem pewnych modyfikacji wynikających z przepisów o odpowiedzialności podmiotów zbiorowych za czyny zabronione pod groźbą kary) może być bowiem przypisana jedynie człowiekowi. Jakkolwiek pojawiają się w doktrynie prawa postulaty nadania robotom specjalnego statusu prawnego oraz stworzenia możliwości ponoszenia przez roboty odpowiedzialności karnej, nie należy się w najbliższej przyszłości spodziewać aż tak rewolucyjnych zmian w prawie.

Problem jest szczególnie widoczny w przypadku robotów w pełni autonomicznych, które podejmują działania wypełniające znamiona czynów zabronionych (np. powodowanie trwałego uszczerbku na zdrowiu czy zniesławienie w wykonaniu automatycznych generatorów treści) przy braku bezpośredniego udziału czynnika ludzkiego. Równie dużym wyzwaniem jest jednak ustalenie zasad odpowiedzialności w przypadku przyczynienia się człowieka do działania robota. Wyobraźmy sobie osobę, która włamuje się do systemu operacyjnego robota i dokonuje modyfikacji algorytmu, wskutek czego robot swoim działaniem powoduje ciężki uszczerbek na zdrowiu kilku osób. Osoba dokonująca ingerencji w algorytm co do zasady nie może być odpowiedzialna za pomocnictwo. Zgodnie z art. 18 Kodeksu karnego odpowiada za pomocnictwo, kto w zamiarze, aby inna osoba dokonała czynu zabronionego, swoim zachowaniem ułatwia jego popełnienie, w szczególności dostarczając narzędzie, środek przewozu, udzielając rady lub informacji. Kodeks karny nie przewiduje zatem pomocnictwa w popełnieniu czynu zabronionego przez robota. Czy zatem osoba dokonująca zmian w algorytmie może sama ponosić odpowiedzialność za sprawstwo, a robot ma być uznany jedynie za narzędzie, za pomocą którego dokonano przestępstwa?

Czy wymiar sprawiedliwości będzie bezbronny w obliczu czynów zabronionych popełnianych przez roboty? Niewykluczone, że musimy pogodzić się z tym, że w przypadku części krzywd wyrządzonych przez roboty (szczególnie tych, które są wynikiem w pełni autonomicznych działań robotów) nigdy nie dojdzie do wymierzenia sprawiedliwości w postaci tradycyjnie rozumianej kary. Wymagałoby to bowiem przyjęcia, że robot jest na tyle autonomicznym bytem, że może podlegać odpowiedzialności karnej. Ponieważ nie wydaje się to w najbliższym czasie realne, tym pilniejsze staje się stworzenie efektywnego systemu zapewniającego przynajmniej naprawienie szkód wyrządzonych przez autonomiczne roboty.

Wydaje się, że niezbędne będzie również wprowadzenie do systemu prawa karnego zestawu regulacji definiujących nowe typy przestępstw związanych z korzystaniem z robotów. Szczególnie penalizowane powinny być określone rodzaje ingerencji w systemy operacyjne robotów. Już samo wprowadzenie do systemu operacyjnego robota modyfikacji, które mogą skutkować wyrządzaniem przez robota szkód oraz dokonywaniem czynów wypełniających znamiona przestępstw, powinno być karane. Warto też rozważyć wprowadzenie do Kodeksu karnego zasady, że osoba dokonująca ingerencji w system operacyjny robota, skutkujących następnie podjęciem przez robota działań wypełniających znamiona czynu zabronionego, ponosi odpowiedzialności karną za ten czyn.

Z uwagi na systemowe niebezpieczeństwo, które może wiązać się z funkcjonowaniem robotów, należałoby również wprowadzić skuteczne mechanizmy przejmowania kontroli nad autonomicznymi robotami oraz mechanizmy prewencyjne, ograniczające możliwość dokonywania modyfikacji w systemach operacyjnych robotów. To wymagałoby zapewne nałożenia na producentów robotów odpowiednich obowiązków zapewniających realizację wspomnianych funkcjonalności.

Wejście na rynek autonomicznych pojazdów spowoduje również konieczność rekonstrukcji systemu odpowiedzialności karnej za przestępstwa w ruchu drogowym. Wpływ kierowcy na działania autonomicznego pojazdu będzie coraz mniejszy. System prawa karnego stanie zatem przed dylematem, jak ustalać odpowiedzialność karną użytkownika autonomicznego pojazdu. Czy użytkownik ten powinien być, przykładowo, karany za korzystanie z pojazdu pod wpływem alkoholu, skoro faktycznie nie ma on wpływu na działania pojazdu? Czy osoba niewidoma korzystająca z autonomicznego pojazdu (producenci takich pojazdów zapowiadają możliwość korzystania z nich przez osoby niewidome) może zostać pociągnięta do odpowiedzialności karnej za sprowadzenie bezpośredniego niebezpieczeństwa katastrofy w ruchu lądowym spowodowaną przez użytkowany przez nią autonomiczny pojazd?

Podsumowanie

Reasumując powyższe rozważania, należy założyć, że docelowe regulacje w zakresie odpowiedzialności za działania robotów powinny obejmować m.in. następujące zagadnienia:

  • ustalenie zasad odpowiedzialności (najwłaściwsze wydaje się oparcie odpowiedzialności za szkody wyrządzone przez autonomiczne roboty na zasadzie ryzyka);
  • ustalenie podmiotu odpowiedzialnego za szkody (w grę wchodzi przede wszystkim producent oraz posiadacz);
  • wprowadzenie rejestru robotów (taki rejestr ułatwiałby ustalenie podmiotu odpowiedzialnego);
  • wprowadzenie systemu obowiązkowego ubezpieczenia odpowiedzialności cywilnej za szkody wywołane działaniem autonomicznych robotów (system ten jest szczególnie ważny w obliczu ograniczonych możliwości wykorzystywania instrumentów prawa karnego do działań podejmowanych przez roboty);
  • stworzenie minimalnych wymagań dla algorytmów instalowanych w systemach operacyjnych autonomicznych robotów (pozwoli to na łatwiejsze ustalanie odpowiedzialności twórców aplikacji, a jednocześnie pomoże zminimalizować liczbę arbitralnych rozstrzygnięć w tym zakresie);
  • nałożenie obowiązków ochrony systemów operacyjnych robotów przed nieuprawnioną ingerencją (w tym np. obowiązkowe instalowanie nowych wersji oprogramowania przez producentów);
  • stworzenie klasyfikacji robotów oraz wprowadzenie ograniczeń w obrocie robotami, które umożliwiają użytkownikom modyfikacje systemów operacyjnych (np. wprowadzenie możliwości sprzedaży takich robotów wyłącznie osobom spełniającym określone kryteria);
  • stworzenie mechanizmów, które będą umożliwiały łatwą identyfikację ewentualnych ingerencji właścicieli robotów w systemy operacyjne robotów;
  • rekonstrukcja zasad odpowiedzialności karnej osób korzystających z autonomicznych robotów.

Krzysztof Wojdyło, praktyka prawa nowych technologii kancelarii Wardyński i Wspólnicy

Artykuł jest częścią Raportu o robotyce