Stworzenie systemu odpowiedzialności za szkody i przestępstwa powodowane przez sztuczną inteligencję jest konieczne. Bo to, co jeszcze wczoraj wydawało się science-fiction, dziś jest rzeczywistością.
Hej, jak ci minął dzień?”. „Widzę, że masz kiepski humor. Przykro mi. Odezwę się, gdy będziesz miał ochotę rozmawiać”. Uroczy głos Scarlett Johansson, ogromna doza wyrozumiałości. I zero zobowiązań.
Tak wyglądają realia w filmie „Her” („Ona”). Jego bohater kupuje system sztucznej inteligencji. I okazuje się to genialną decyzją. Z czasem się w nim zakochuje – zresztą z wzajemnością.
Obraz Spike’a Jonze’a z 2013 r. ma coraz mniej wspólnego z science-fiction, a więcej z rzeczywistością. Dowód? W grudniu ubiegłego roku japońska firma Vinclu przedstawiła Gatebox – wirtualną postać kobiecej kompanki życia. Dzwoni ona do swego właściciela, by porozmawiać, wysyła miłe SMS-y podczas pracy, a na koniec dnia czule mówi: „Oyasumi nasai” (jap. dobranoc). Produkt ten jest adresowany do samotnych mężczyzn, którzy dużo pracują i są zbyt nieśmiali, by nawiązać relacje z prawdziwą – z krwi i kości, a nie linijek kodu – kobietą.
Oczywiście przygotowana przez Japończyków sztuczna inteligencja jest o wiele mniej doskonała niż ta znana z „Her”. Ale zdaniem ekspertów w pełni zadowalający poziom oprogramowania zostanie osiągnięty w ciągu dekady, najwyżej 15 lat.
Mało realne? Warto przypomnieć sobie filmowe wizje powstania autonomicznych samochodów. Jeszcze w latach 80. mówiono: „niemożliwe”, „fantastyka”. Teraz zastanawiamy się nie nad tym, czy samosterowalne pojazdy będą jeździły po ulicach, lecz kiedy staną się urządzeniami na kieszeń przeciętnego człowieka.
Roboty – czy tego chcemy czy nie – to nieodłączny element rozwoju cywilizacji. I niemal wszyscy naukowcy zgodnie przyznają, że to, co dzisiaj wymaga 10 lat pracy, za 20 lat będzie do zrobienia w chwilę. Dzięki rozwojowi robotyki uda nam się na przykład wyeliminować problem opieki nad osobami starszymi. Ot, zajmować się nimi będą maszyny stworzone na podobieństwo człowieka... Ale zaraz. Stop. To nieprawda. Nie będzie żadnych robotów na podobieństwo człowieka. Nie będziemy mijać w tłumie atrakcyjnych kobiet, zastanawiając się, czy o ich wyglądzie stanowi wrodzony urok i nabyty wdzięk czy też nowy rodzaj sztucznej skóry i talent designera z firmy produkującej androidy.
– Robot nie może wyglądać jak człowiek. Jego twórca musi zadbać o to, aby już na pierwszy rzut oka było wiadomo, że za urządzeniem stoi człowiek, który je zaprogramował. Zero uczuć. Tylko i aż produkt – mówi nam Mady Delvaux, posłanka do Parlamentu Europejskiego z Luksemburga, autorka raportu, który ma być podstawą prac unijnych decydentów nad stworzeniem kompleksowego prawa robotycznego. – Trzeba się skupić przede wszystkim na konsekwencjach rozwoju, stworzeniu systemu odpowiedzialności za naruszenia powodowane przez sztuczną inteligencję – wskazuje Delvaux.
Europarlamentarzyści dostrzegają trzy pola, w których trzeba podjąć działania. Kompleksowe prawo robotów ma się bowiem dzielić na część cywilną, karną oraz administracyjno-społeczną.
Zagadnienia cywilne
Mady Delvaux uważa, że w czasie, gdy autonomiczne pojazdy wyjeżdżają już na ulice, a moc obliczeniowa oprogramowania wgranego w domowym odkurzaczu daleko przekracza tę, którą jeszcze kilka lat temu wykorzystywano w komputerach osobistych, najbardziej palącą potrzebą jest rozstrzygnięcie kwestii dotyczących prawa cywilnego.
– Pozostałe też są ważne, ale wydaje nam się, że warto uwzględnić dwie rzeczy. Po pierwsze to, czy nasze propozycje znajdą uznanie w rządach państw członkowskich UE, a po drugie – że nie ma nic złego w przetarciu szlaków – tłumaczy nam europosłanka. Nie ukrywa też, iż chodzi o to, aby powstało możliwie jak najmniej punktów zapalnych i przeciągania liny pomiędzy różnymi środowiskami.
– Nie możemy sobie pozwolić na stratę czasu. Uregulowanie zasad odpowiedzialności cywilnej związanej z wykorzystywaniem do codziennych zadań robotów to zadanie na najbliższe 2–3 lata, a nie na 7 czy 10 – zaznacza Delvaux.
Europarlamentarzyści, którzy zaangażowali się w stworzenie podstaw unijnego prawa robotów, uważają, że kluczowe są trzy kwestie.
Po pierwsze, trzeba przesądzić, kto powinien ponosić odpowiedzialność za szkodę wyrządzoną przez maszynę. Innymi słowy, jeśli robot zamiast nakryć do stołu, zniszczy drogą zastawę, kto powinien za to zapłacić? Podstawowe koncepcje są dwie. Wersja pierwsza: odpowiedzialność ponosi producent. Ten, kto urządzenie zaprogramował, ten ponosi odpowiedzialność. Zdaniem unijnych decydentów takie rozwiązanie byłoby najprostsze w stosowaniu. Ustalenie producenta robota nie powinno bowiem nastręczać większych trudności. Ale to dobry pomysł, gdy myślimy o urządzeniach już teraz wchodzących na rynek bądź właśnie projektowanych. A można sobie wyobrazić takie, które są zaprogramowane do przyswajania nawyków od właściciela. Wówczas obarczenie odpowiedzialnością producenta byłoby niesprawiedliwe. Jest więc wariant drugi. Zgodnie z nim co do zasady za naruszenie odpowiadałby właściciel lub użytkownik. Tak jak za szkodę wyrządzoną przez psa odpowiada jego właściciel, na podobnej zasadzie stworzone zostałyby przepisy dotyczące odpowiedzialności za szkody wyrządzone przez maszyny. Ale i tu istnieje pewien mankament. Bez trudu przecież – znamy to wszyscy z filmów science-fiction – można sobie wyobrazić urządzenia bezpańskie.
Najbardziej prawdopodobny – i to on zostanie najprawdopodobniej zasugerowany Komisji Europejskiej przez europarlamentarzystów – jest wariant odpowiedzialności mieszanej. Jeśli dany robot będzie uważany za urządzenie rozwijające się, to ewentualne koszty podzielą między sobą i producent, i właściciel. Proporcje będą ustalane przez sądy, które wezmą pod uwagę to, jakie znaczenie przy naruszeniu miało wyszkolenie maszyny, a jakie samo jej stworzenie.
Kwestia druga. Europarlamentarzyści chcą, aby stworzony został prawny status robota; coś na kształt osoby elektronicznej stojącej obok osób fizycznej i prawnej rodem z kodeksu cywilnego, choć to pewne uproszczenie. Od każdej osoby elektronicznej byłaby odprowadzana składka na specjalny fundusz odszkodowawczy. – Chodzi o to, by w przypadku, gdy robot podejmie autonomiczną decyzję, która doprowadza do szkody, i nie da się nikogo pociągnąć do odpowiedzialności, to właśnie z tego funduszu będą pokrywane koszty wypłaty odszkodowania i ewentualnego zadośćuczynienia – wyjaśnia Mady Delvaux.
I wreszcie po trzecie, generalną regułą ma być odpowiedzialność na zasadzie ryzyka, a nie winy. Mówiąc prościej: bez znaczenia będzie to, czy właściciel maszyny wydał jej polecenie czy nie. Wtórne będzie to, czy producent świadomie ograniczył swe prace przy projektowaniu urządzenia czy nie przewidział ewentualnych kłopotów. Już sam fakt produkowania maszyn oraz wykorzystywania ich na co dzień będzie nas narażał na to, że któregoś dnia przyjdzie słono zapłacić za błąd mechanicznego kompana.
Mady Delvaux wskazuje, że to jeden z nielicznych punktów w projektowanym rozwiązaniu, który musi się w nim ostatecznie utrzymać – niezależnie od oporów różnych środowisk. Wprowadzenie odpowiedzialności na zasadzie ryzyka, a nie winy, uprości bowiem życie wszystkim poszkodowanym. A to właśnie poprawa ich sytuacji stanowi clou koncepcji.
– Propozycje europarlamentarzystów dotyczą fundamentalnych kwestii, których dzisiaj nie można – może z wyjątkiem odpowiedzialności na zasadzie ryzyka – wyprowadzać z przepisów polskiego prawa cywilnego – wskazuje dr Paweł Litwiński, adwokat w kancelarii Barta Litwiński i ekspert Instytutu Allerhanda. Jego zdaniem trzeba pamiętać o tym, że popularne teraz autonomiczne samochody to jedynie wycinek całości.
– Jak np. powinna wyglądać odpowiedzialność za szkody wyrządzone przez drona dostarczającego przesyłki? Albo przez robota wykonującego zabieg operacyjny? To są pytania, na które już niebawem będziemy musieli znać odpowiedzi. Dlatego uważam, że kompleksowy akt prawny jest potrzebny. To jest właśnie ten czas, w którym trzeba rozpocząć nad nim prace – zachwala inicjatywę dr Litwiński.
Podobnie zresztą twierdzą inni eksperci. Doktor Wojciech Wiewiórowski z Wydziału Prawa i Administracji Uniwersytetu Gdańskiego przypomina, że w maju 2016 r. kancelaria prawnicza Baker & Hostetler z centralą w Cleveland w stanie Ohio poinformowała, że w stulecie swego istnienia postanowiła jako pierwsza globalna firma prawnicza „zatrudnić” system sztucznej inteligencji Ross jako adwokata w swym biurze do wspierania działu zajmującego się postępowaniami upadłościowymi. – Sztuczna inteligencja i robotyka to więc coś znacznie więcej niż samochody autonomiczne. Potrzebne są więc klarowne regulacje – twierdzi ekspert.
Jedna rzecz jednak twórcom raportu, który zostanie rozpatrzony najpierw przez Parlament Europejski, a następnie przez Komisję, spędza sen z powiek. W ramach regulacji unijnych można bowiem tylko i aż wprowadzić pewne ogólne zasady na terenie 28 państw. Istnieje więc ryzyko, że na świecie powstaną różne modele prawa robotów. To zaś, jak przyznają eurodecydenci, może stanowić pewien problem. Niekorzystna byłaby przecież sytuacja, gdy zupełnie inne reguły odpowiedzialności dotyczyły tej samej maszyny w zależności od tego, na którym kontynencie w chwili popełnienia czynu by się ona znajdowała.
Na rozwiązanie tego problemu pomysłu na razie nie ma. Najskuteczniejsze oczywiście byłoby zawarcie ogólnoświatowego porozumienia. To jednak – przy obecnych globalnych napięciach – scenariusz rodem z filmu science-fiction.
Odpowiedzialność karna
W kultowym filmie „Łowca androidów” Ridleya Scotta z 1982 r. część maszyn sprzeciwia się powrotowi z wydzielonej dla nich kolonii pracy znajdującej się na innej planecie. Tragiczna historia tych istot wynika stąd, że są one świadome zbliżającego się końca ich egzystencji – twórcy zaplanowali dla nich bowiem jedynie określony czas funkcjonowania. Walcząc o przetrwanie i przedłużenie swego żywota, roboty posuwają się do przemocy i morderstw.
Inny przykład? Brytyjski film „Ex Machina” z 2015 r. Opowiada historię maszyn, które w obliczu zagrożenia manipulują, knują intrygi i ostatecznie mordują. Wszystko po to, by wydostać się z placówki prowadzonej przez twórcę tyrana. Czyli de facto zachowują się jak niektórzy ludzie w obliczu poważnego zagrożenia.
Bunt maszyn – to jeden z najbardziej oklepanych motywów w filmach i powieściach z gatunku science-fiction. A jednocześnie chyba najbardziej rozpalający wyobraźnię i podniecający zapały inżynierów robotyki cierpiących na kompleks Boga.
Mało realne? No to urealnijmy. Wyobraźmy sobie armię globalnego mocarstwa, które zaczyna wykorzystywać maszyny jako narzędzia niosące wojenną pożogę.
Europarlamentarzyści chcą, aby stworzony został prawny status robota; coś na kształt osoby elektronicznej stojącej obok osób fizycznej i prawnej rodem z kodeksu cywilnego, choć to pewne uproszczenie. Od każdej osoby elektronicznej byłaby odprowadzana składka na specjalny fundusz odszkodowawczy
– Androidem czy dronem można przecież posłużyć się jako narzędziem. Tak jak rozwój technologiczny umożliwił zastąpienie maczugi samolotami bezzałogowymi, tak wkrótce dostępne staną się armie terminatorów – przypuszcza dr Mateusz Woiński z Katedry Prawa Karnego Akademii Leona Koźmińskiego.
Dlatego też znaczenia nabiera uregulowanie zasad odpowiedzialności karnej za czyny zabronione dokonane przez maszyny. – Najpierw chcemy uregulować zasady obejmujące korzystanie z robotów cywilnych. Prawo dotyczące tych bojowych to dopiero następny krok – zastrzega Mady Delvaux. Ale dodaje, że w ciągu najbliższych kilku lat i on będzie musiał zostać wykonany.
Także tu – tak jak w przypadku prawa cywilnego – potrzebne będą radykalne zmiany. Przede wszystkim obecnie odpowiedzialność karna obejmuje wyłącznie czyny człowieka. – Dlatego rozważamy możliwość postawienia zarzutów architektom, budowniczym, konstruktorom samochodów, programistom robotów itd. Co jednak poczniemy z androidami, które będą przyswajać wiedzę wskutek doświadczenia, będą zdolne do podejmowania samodzielnych decyzji, zwłaszcza tych niezgodnych z wolą twórców? – zastanawia się Woiński.
Niezależnie od tego doprecyzowane będą musiały zostać przepisy dotyczące odpowiedzialności karnej programistów. Bez wątpienia w odróżnieniu od prawa cywilnego w tym przypadku będziemy mieli do czynienia z odpowiedzialnością na zasadzie winy, a nie ryzyka. Mateusz Woiński spostrzega jednak, że w przypadku czynu zabronionego polegającego na stworzeniu niewłaściwego kodu może pojawić się ogrom problemów. – W przypadku zabójstwa – i ogólnie rzecz biorąc wszystkich przestępstw materialnych – konieczne jest ustalenie związku przyczynowego pomiędzy skutkiem a zachowaniem sprawcy, w tym przypadku programisty. I tutaj mogą pojawić się poważne trudności dowodowe – zauważa karnista.
Różnica pomiędzy umyślnym stworzeniem robota z licencją na zabijanie a popełnieniem błędu może być bowiem po fakcie, na podstawie analizy napisanego kodu, niedostrzegalna.
Jeszcze inaczej rzecz się będzie miała przy bojowym zastosowaniu maszyn, które działać będą pod nadzorem wojska. Zdaniem Mady Delvaux należy jednak dążyć do tego, aby w XXI wieku czerpać z mądrych pomysłów powstałych jeszcze w wieku XX. Jej zdaniem za taki należy zaś uznać kanon etyki robotów, czyli prawa Asimova. Pisarz Isaac Asimov w roku 1942 stworzył trzy prawa robotów i przedstawił je w fantastycznym opowiadaniu „Zabawa w berka”:
1. Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Gdyby te zasady przyjąć za kanon nowo tworzonego prawa, zbrojne wykorzystywanie maszyn byłoby w zasadzie niemożliwe. O to zresztą apelują najwybitniejsi światowi naukowcy. W lipcu 2015 r. ponad tysiąc ekspertów z zakresu robotyki i sztucznej inteligencji (wśród nich również fizyk Steven Hawking, technolog i przedsiębiorca Ellon Musk oraz filozof Noam Chomsky) podpisało się pod listem otwartym mającym na celu zatrzymanie rozwoju robotów posiadających sztuczną inteligencję, a projektowanych w celach militarnych. Eksperci widzą co prawda gigantyczny potencjał w rozwoju sztucznej inteligencji, jednak autonomicznie działająca broń w nieodpowiednich rękach – np. terrorystów bądź brutalnych dyktatorów – mogłaby stanowić zagrożenie dla ludzkości.
Odpowiedzialność administracyjno-społeczna
„– Jaki jest najlepszy rodzaj pracownika?
– Prawdopodobnie taki, który jest uczciwy i oddany.
– Nie, ten najtańszy. Taki z najmniejszą ilością potrzeb. Młody Rossum wyrzucił wszystko, co nie łączy się bezpośrednio z pracą, a robiąc to, odrzucił człowieka – stworzył zaś robota”.
To cytat ze sztuki Karela Čapka „Rossumovi Univerzální Roboti” (Roboty Uniwersalne Rossuma). Trudno w to uwierzyć, ale pochodzi z 1920 r. I jest nadal aktualna, bo jednym z najczęściej pojawiających się przy dyskusji o robotach pytań jest to, czy (i ewentualnie komu) odbiorą one pracę.
Renomowana firma McKinsey przygotowała nawet raport „The future that works: automation, employment and productivity”. Wynika z niego, że wykorzystanie nowoczesnych technologii, w tym maszyn, może w zasadzie odesłać do lamusa krawców, magazynierów czy sklepowych sprzedawców. Pewnie – jak wynika z opracowania – mogą czuć się jedynie legislatorzy i psychiatrzy.
Z drugiej wszak strony, o wyparciu z rynku pracy człowieka przez maszyny mówiło się już przeszło 100 lat temu. A nic takiego nie nastąpiło. Wręcz rozwój technologiczny służy ogółowi społeczeństwa.
– Mówiąc bardzo oględnie, wcale nie jestem przekonany, czy Zjednoczone Królestwo straciło na rewolucji przemysłowej XIX wieku – spostrzega dr Mateusz Woiński. Zaiste, nie straciło. Ale z tym argumentem mierzyli się już przecież i Jeremy Rifkin, autor koncepcji „końca pracy”, i John Maynard Keynes, i laureat Nagrody Nobla Wasilij Leontief.
– Wkraczamy w nową fazę w historii świata, w której potrzeba coraz mniej pracowników do wyprodukowania dóbr i usług dla całej populacji. Dziś wszystkie sektory gospodarki doświadczają zmian technologicznych i skazują miliony ludzi na bezrobocie. Przeciwstawienie się temu zjawisku będzie chyba najpilniejszym problemem społecznym nowego stulecia – pisał Rifkin w 1995 r. A jego słowa stały się niemal prorocze po opanowaniu światowego kryzysu ekonomicznego, który wybuchł w 2008 r. W latach 2007–2009 pracę w USA straciło przeszło 12 mln osób. Poprawa koniunktury gospodarczej w latach późniejszych nie przełożyła się jednak na powrót Amerykanów na uprzednio zajmowane przez nich stanowiska. Przyrost zatrudnienia jeszcze we wrześniu 2015 r. był o 40 proc. niższy niż szacowany przez amerykańskie Biuro Statystyki Rynku Pracy.
Zdaniem wielu ekonomistów – po tylu latach od uspokojenia się rynków finansowych powodów takiego stanu rzeczy należy szukać nie w obawach natury ekonomicznej, lecz w automatyzacji pracy. I zjawisko to wraz z powstawaniem coraz to doskonalszych maszyn będzie przybierać na sile.
Nie brakuje jednak krytyków tej koncepcji. Inny z noblistów, Paul Krugman, mówi tak: „Bezrobocie w Ameryce jest skutkiem niedomagającego popytu – i tyle”. Wtórują mu zaś co do zasady uznający argumentację Rifkina czołowi amerykańscy ekonomiści Erik Brynjolfsson i Andrew McAfee, twórcy książki „Wyścig z maszynami”. Ich zdaniem proces ożywienia gospodarki musi być frustrująco długi. I mieszanie do tego robotów jest daleko idącym wygodnictwem. Nie da się jednak ukryć, że skoro z zakładów pracy znikną pracownicy, to ubędą również płacone przez nich składki. Z tego powodu Komisja Europejska od połowy ubiegłego roku rozważa wprowadzenie specjalnego podatku od robotów. Ten pomysł nie spotyka się jednak z aprobatą ekspertów. Zdaniem Grzegorza Baczewskiego, dyrektora departamentu dialogu społecznego i prawa pracy Konfederacji Lewiatan, przedsiębiorca, który decyduje się wprowadzić do swojego zakładu maszyny, obniża koszty zatrudnienia, zwiększa zaś zysk. Czyli nie ma potrzeby wprowadzania osobnej daniny, bo ostatecznie Skarb Państwa nie traci – otrzymuje bowiem dodatkowe przychody z tytułu wyższego podatku dochodowego CIT. Jedno jest pewne: „Roboty mogą pozbawić ludzi pracy. Ale mogą też pomóc społeczeństwu w rozwoju. Jesteśmy w tej uprzywilejowanej sytuacji, że to jak na razie my im dyktujemy warunki, a nie one nam” – wskazują autorzy wspomnianej książki „Wyścig z maszynami”. A Mady Delvaux dodaje z uśmiechem: „Dlatego musimy z tego korzystać, nim nas prześcigną”.