Rozwój nowoczesnych systemów nie może doprowadzić do pogwałcenia praw człowieka – uznała właśnie Komisja Europejska, która przedstawiła program działania UE na najbliższe lata.

„Chociaż większość systemów AI (sztucznej inteligencji – przyp. red.) stwarza niskie ryzyko lub nie stwarza go w ogóle, to niektóre systemy AI powodują zagrożenia, którym należy przeciwdziałać, aby uniknąć niepożądanych skutków. Na przykład nieprzejrzystość wielu algorytmów może prowadzić do niepewności i utrudniać skuteczne egzekwowanie obowiązujących przepisów dotyczących bezpieczeństwa i praw podstawowych”. To kluczowe zdania z wczorajszej prezentacji Komisji Europejskiej poświęconej rozwojowi sztucznej inteligencji w Europie. Mówiąc najkrócej: oprócz inwestowania w robotyzację i nowoczesne technologie, nie można zapomnieć o etyce i poszanowaniu praw jednostki, np. do prywatności. A kto z biznesu zapomni, słono za to zapłaci. Takie założenie przynajmniej przyświeca projektowi nowego rozporządzenia oraz nowym ramom prawnym.
Ocena ryzyka
Komisja Europejska proponuje, by poszczególne rozwiązania z zakresu sztucznej inteligencji podlegały ocenie ryzyka. Od niej będzie zależało, na co producenci i wykorzystujący nowoczesne narzędzia będą mogli sobie pozwolić.
Jako ryzyko niedopuszczalne, równoważne z zakazem wykorzystywania sztucznej inteligencji, komisja wskazuje wszystko, co jest sprzeczne z wartościami UE i narusza prawa podstawowe. Przykłady? Prowadzona przez rządy ocena punktowa obywateli, wykorzystywanie słabości u dzieci, stosowanie technik podprogowych i – z zastrzeżeniem wąsko określonych wyjątków – systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym funkcjonujących w przestrzeni publicznej i wykorzystywanych do celów egzekwowania prawa.
Wysokie ryzyko wykorzystania systemów AI nieść będą rozwiązania, które „mają negatywny wpływ na bezpieczeństwo ludzi lub ich prawa podstawowe”, a jednocześnie nie stanowią narzędzi niedopuszczalnego ryzyka. W takich przypadkach wykorzystujący systemy będą objęci szeregiem wymogów do spełniania. Wśród nich KE wskazuje „jakość stosowanych zbiorów danych, dokumentację techniczną i prowadzenie dokumentacji, przejrzystość i przekazywanie informacji użytkownikom, nadzór ze strony człowieka oraz solidność, dokładność i cyberbezpieczeństwo”. Co się za tym dokładnie kryje, dopiero się dowiemy.
Wiadomo natomiast, że za algorytmy wysokiego ryzyka, które będą podlegały szczególnej kontroli, uznawać ma się np. te zawarte w samochodach autonomicznych, wymiarze sprawiedliwości czy przy ocenie zdolności kredytowej.
– To dobrze, że systemy oceniające zdolność kredytową czy kandydatów do pracy zostały określone jako systemy wysokiego ryzyka. Choć nie wyrządzają one krzywdy fizycznej ludziom, to jednak mogą istotnie wpływać na ich życie. Wszak zastosowanie SI w tym zakresie można porównać do wróżenia z fusów – to przewidywanie przyszłości na podstawie danych z przeszłości – twierdzi Tomasz Zalewski, partner w kancelarii Bird & Bird i prezes Fundacji LegalTech Polska.
Kolejna kategoria – ograniczonego ryzyka – to zaś sytuacje, gdy istnieje wyraźne ryzyko manipulacji (np. w wyniku zastosowania wirtualnych rozmówców – chatbotów). Użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną.
I wreszcie ostatnia kategoria – gdy ryzyko jest minimalne – pozwalać będzie na nieskrępowane wykorzystywanie systemów AI, dopóki dana działalność nie stanie się na tyle ryzykowna, że uznać ją będzie należało za co najmniej ograniczone ryzyko.
Konieczny nadzór
Aby przepisy nie okazały się martwe, komisja wskazuje, że każde państwo członkowskie powinno wyznaczyć co najmniej jeden właściwy organ krajowy odpowiedzialny za nadzór nad stosowaniem i wdrażaniem odnośnych przepisów, a także za prowadzenie działań w zakresie nadzoru rynku. Powstanie też Europejska Rada ds. Sztucznej Inteligencji, której zadaniem będzie ułatwienie sprawnego i zharmonizowanego wdrażania nowych regulacji we wszystkich państwach członkowskich.
– Państwa członkowskie mają samodzielnie wskazać organ lub organy, które będą nadzorować przestrzeganie przepisów dotyczących SI. To budzi pewne wątpliwości, bo możemy powtórzyć problemy znane z RODO, gdzie większość gigantów technologicznych ulokowała się w Irlandii, znanej raczej z liberalnego podejścia do unijnej regulacji ochrony danych osobowych – zaznacza dr Michał Mostowik, adwokat i starszy prawnik w kancelarii DLK Legal. I dodaje, że przepisów powinny przestrzegać także podmioty spoza UE oferujące rozwiązania trafiające do obywateli Unii. A to może skończyć się nawet zablokowaniem dostępu do najnowszych rozwiązań technologicznych z USA czy Chin dla Europejczyków, co w efekcie będzie prowadzić do innego typu dyskryminacji. Bezpośrednio po RODO na zablokowanie swoich stron internetowych dla obywateli UE zdecydowało się bowiem np. wiele amerykańskich tytułów prasowych.
Za naruszenie przepisów przedsiębiorcom grozić będą wysokie kary – co do zasady do 20 mln euro lub 4 proc. rocznego obrotu. W przypadku najpoważniejszych naruszeń – zastosowania sztucznej inteligencji do zakazanych celów lub naruszania zasad w zakresie wykorzystywania systemów wysokiego ryzyka – sankcje wyniosą zaś do 30 mln euro lub 6 proc. rocznego obrotu przedsiębiorstwa.
– Co do kar to ich wysokość nie jest najważniejsza, lecz ich nieuchronność. To, czy przepisy będą stosowane, będzie zależało od organów nadzorujących ten obszar. Firmy mogą nie chcieć dzielić się tajemnicą przedsiębiorstwa, w jaki sposób dokładnie działają ich algorytmy. To naturalna płaszczyzna do sporów pomiędzy firmami a organami nadzoru – zwraca uwagę dr Michał Mostowik.
Tomasz Zalewski uważa, że Komisja Europejska pokazuje właśnie, że UE – w odróżnieniu od USA i Chin – chce chronić swoich obywateli przed niekontrolowanym rozwojem potencjalnie szkodliwych programów wspomaganych SI.
Jego zdaniem projekt rozporządzenia potrzebuje jeszcze wielu szlifów, poczynając od samej definicji SI, która jest niezwykle szeroka. Tak naprawdę – uważa Zalewski – można z niej wywnioskować, że nawet proste chatboty czy formularze zawierające proste algorytmy, powinny podlegać przepisom rozporządzenia. To zaś wydaje się nadmierne.
– Projekt rozporządzenia pod wieloma względami jest podobny do RODO. I jego zastosowanie może przynieść podobne problemy: z interpretacją przepisów, z ustaleniem, czy doszło do naruszenia, oraz z wysokością kar za te naruszenia itd. – wymienia prawnik.
Dalsza procedura wygląda tak, że Parlament Europejski i państwa członkowskie powinny przyjąć wnioski ustawodawcze Komisji dotyczące europejskiego podejścia do sztucznej inteligencji oraz maszyn w ramach standardowej procedury ustawodawczej. Po ich ostatecznym przyjęciu przepisy będą bezpośrednio stosowane w całej UE.
Potrzeba rozwoju