Rozporządzenia zamiast dyrektyw, różne zasady odpowiedzialności w zależności od wpływu rozwiązania na ludzi oraz rozwój wolniejszy, ale etyczny.
DGP
Ameryka Północna inwestuje w sztuczną inteligencję ponad 15 mld euro rocznie. Azja – ok. 10 mld euro. Europa zaś od 2,5 do 3 mld euro rocznie. Różnica jest gigantyczna. Między innymi z tego powodu Komisja Europejska chce zwiększyć prywatne i publiczne inwestycje w sztuczną inteligencję do 20 mld euro rocznie.
Uznano zarazem, że trzeba w końcu wypracować przepisy, które mogłyby stać się współczesnym prawem robotów w UE. Wstępną propozycję w formie trzech rezolucji przygotował Parlament Europejski.

Wspólny rozwój

To co najistotniejsze: stwierdzono, że regulacje w całej UE powinny być takie same, zatem należy przygotować rozporządzenia, a nie dyrektywy, które mogłyby być różnie wdrażane w poszczególnych państwach członkowskich.
Uznano, że najistotniejszy jest rozwój sztucznej inteligencji, ale zarazem – o czym zapominają choćby Azjaci – nie wolno pomijać aspektów etycznych. Dlatego w nowych przepisach wiele uwagi trzeba poświęcić standardom zapewniania prywatności ludziom.
Poszczególne rozwiązania z zakresu SI powinny podlegać ocenie ryzyka. I inne obowiązki będą mieli producenci i użytkownicy urządzeń (robotów) uznanych za te wysokiego ryzyka, a inne – z ryzykiem mniejszym.
Istotnym wątkiem, zdaniem europosłów, jest wypracowanie zasad odpowiedzialności cywilnej. Parlamentarna propozycja zakłada stosowanie zarówno odpowiedzialności na zasadzie winy, jak i ryzyka. Ta druga znalazłaby zastosowanie do ochrony kluczowych wartości takich jak życie i zdrowie oraz własność. Pierwsza – do wszelkich naruszeń mniej istotnych oraz wywołanych przez wykorzystanie urządzeń niezaliczanych do tych wysokiego ryzyka.
Parlament Europejski uważa, że niewłaściwa byłaby koncepcja, która wcześniej była proponowana w izbie, czyli ustanowienia osoby elektronicznej. Za to zdefiniować będzie należało operatorów systemów sztucznej inteligencji, którymi będą osoby fizyczne lub prawne sprawujące kontrolę nad urządzeniami. I, co do zasady, to właśnie oni będą ponosić odpowiedzialność za szkody. Jeśli operatorów jednego systemu będzie więcej – solidarnie. Przy czym, rzecz jasna, od odpowiedzialności będzie można się uwolnić, np. wskazując na siłę wyższą.
Europosłowie chcą też – aby urzeczywistnić ochronę poszkodowanych przez sztuczną inteligencję – wprowadzić obowiązkowy system ubezpieczeń, który objąć miałby przede wszystkim rozwiązania wysokiego ryzyka, czyli mogące spowodować szkody głównie na ludzkim zdrowiu.

Wyścig z lamborghini

– Gwałtowny rozwój SI jest możliwy tylko wówczas, gdy nie będzie się mu narzucać żadnych istotnych ograniczeń – tak jest np. w Chinach. PE wskazuje, że regulacje prawne nie powinny hamować postępu prac nad SI, ale od teorii do praktyki daleka droga. Nieraz mówi się, że na świecie są trzy potęgi w zakresie SI: Chiny, USA oraz Unia Europejska. Brzmi świetnie. Jednak prawda jest taka, że o ile te dwa pierwsze państwa można przyrównać do mknących po autostradzie lamborghini, o tyle nasz region przypomina raczej ledwo zipiącego malucha – zauważa dr Kamil Szpyt, radca prawny i adiunkt w Krakowskiej Akademii im. Andrzeja Frycza Modrzewskiego. Jak jednak dodaje, pojawiają się głosy, że firmy z UE nie mają wygrywać innowacją, lecz jakością rozwiązań. I to się częściowo, zdaniem dr. Szpyta, sprawdza, bo europejskie firmy bywają postrzegane jako bezpieczniejsze z uwagi na konieczność podporządkowania się wielu wymagającym regulacjom, np. RODO, PSD2 itd.
– Być może stworzenie bezpiecznej i etycznej SI też da pewien rodzaj przewagi podmiotom gospodarczym z UE. Może rzeczywiście nie ma co się ścigać z Chinami i USA na 100 m, ale nastawić się na maraton – zauważa ekspert.
Doktor Gabriela Bar, radca prawny i partner zarządzający w kancelarii Szostek_Bar i Partnerzy, uważa, że Parlament Europejski bardzo pragmatycznie podchodzi do kwestii SI, o czym świadczyć może choćby to, że porzucił rozważania na temat tego, aby Sztuczna Inteligencja miała mieć przyznaną osobowość prawną.
– PE ewidentnie skupił się teraz na potraktowaniu SI jako narzędzia, co w pewien sposób może odczarowywać powszechny przekaz marketingowy, jaki narósł wokół tej materii. Ale to dobre podejście – póki SI nie jest ogólną sztuczną inteligencją i nie jest samoświadoma, lecz jedynie stanowi zaawansowany system informatyczny, dzięki któremu możemy przetwarzać ogromne ilości danych – trzeba ją traktować bardziej jak produkt niebezpieczny niż podmiot prawa – twierdzi prawniczka. Jej zdaniem wybór formy rozporządzeń to dobry kierunek, bo dzięki temu jest szansa na zapewnienie wspólnego reżimu prawnego, który jest konieczny choćby przy ocenie odpowiedzialności operatora SI.
– Mam jedynie wątpliwość co do propozycji przyjęcia rozporządzenia w odniesieniu do kwestii własności intelektualnej. To jest absolutna nowość. W dziedzinie prawa autorskiego jeszcze nigdy nie było rozporządzenia. Opieraliśmy się zawsze na dyrektywach, co uzasadniano rozbieżnością systemów prawnoautorskich oraz odmiennościami kulturowymi. To może być duże wyzwanie dla UE – zauważa dr Bar.
Doktor Kamil Szpyt z kolei przypomina, że przez długi czas podnoszono, iż stosowanie rozwiązań wykorzystujących SI powinno wiązać się z ponoszeniem za nie odpowiedzialności na zasadzie ryzyka.
– Ale przecież mamy SI w smartfonach, wyszukiwarkach internetowych oraz samoparkujących samochodach. Nie powoduje ona ponadprzeciętnego ryzyka i tego typu aplikacje powinny być traktowane podobnie jak wszystkie inne tradycyjne programy komputerowe – twierdzi prawnik. Uważa zatem, że to dobrze, iż PE w końcu uznał, że rodzaj odpowiedzialności może się różnić w zależności od tego, w jakim celu i na jaką skalę używany jest system SI.
Jednocześnie jednak – w ocenie dr. Szpyta – zaproponowane rozwiązania w zakresie odpowiedzialności mogą być niekiedy kłopotliwe dla producentów technologii powodujących wysokie ryzyko, np. w sektorze medycznym. Jakkolwiek bowiem to dobra koncepcja, jednakże można mieć pewne wątpliwości, w jaki dokładnie sposób będzie się oceniało, kiedy mamy do czynienia z wysokim ryzykiem, a kiedy jeszcze nie. Z punktu widzenia producentów to będzie kluczowa kwestia.
– Operatorzy pozostałych systemów SI będą odpowiadali na zasadzie winy – to relatywnie liberalne podejście, nad którym KE powinna się jeszcze mocno pochylić. Chociaż oczywiście trzeba się zgodzić, że nawet zaproponowane przez PE ramy prawne mogą ograniczyć w pewnym stopniu innowacyjne rozwiązania, bo przecież przepisy będą kłaść duży nacisk na ochronę jednostki – konkluduje Gabriela Bar.