Komisja Europejska opublikowała wytyczne w sprawie zakazanych praktyk w zakresie sztucznej inteligencji. Dokument ma na razie status projektu – komisja zatwierdziła wytyczne, ale jeszcze ich formalnie nie przyjęła.
Wskazówki są potrzebne do interpretowania przepisów unijnego rozporządzenia Akt o sztucznej inteligencji (AI Act), stosowanych od 2 lutego br. Są to pierwsze dwa rozdziały aktu, w tym art. 5 dotyczący zakazanych praktyk. Zabrania on wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI stanowiących niedopuszczalne ryzyko dla praw podstawowych, takich jak wolność wypowiedzi, równość płci i prywatność. Jak pisaliśmy w DGP 3 lutego, interpretacja Aktu o AI stwarza problemy, stąd potrzeba wytycznych, które ułatwią dostawcom oraz podmiotom wdrażającym i stosującym systemy AI właściwe ich zakwalifikowanie.
Czego zakazuje AI Act
AI Act zakazuje m.in. wprowadzania do obrotu i wykorzystywania systemów stosujących techniki podprogowe, celowe techniki manipulacyjne lub wprowadzające w błąd, których celem lub skutkiem działania jest znacząca zmiana ludzkiego zachowania – poprzez ograniczenie zdolności do podejmowania świadomych decyzji. Osoba poddana działaniu takiego systemu AI podejmuje decyzję, jakiej inaczej by nie podjęła, w sposób, który wyrządza lub może jej wyrządzić poważną szkodę.
W praktyce, aby stwierdzić, czy konkretny system powinien zostać objęty tym zakazem, kluczowe będzie odróżnienie manipulacji od perswazji. Jak podkreślono w wytycznych, ta druga technika nie stanowi elementu zakazanej praktyki AI – choć obie wpływają na ludzkie decyzje i zachowania.
KE, wskazuje, czym się różni perswazja od manipulacji
Jak przekonuje KE, perswazja w przeciwieństwie do manipulacji działa w granicach przejrzystości i szacunku dla autonomii jednostki. Wyjaśnia cele i funkcjonowanie danego systemu AI i dostarcza istotnych i dokładnych informacji, aby zapewnić świadome podejmowanie decyzji. Wspiera też zdolność jednostki do oceny argumentów i dokonania wolnego i autonomicznego wyboru. Dlatego – jak czytamy w wytycznych – np. system AI wykorzystujący spersonalizowane rekomendacje oparte na przejrzystych algorytmach oraz preferencjach użytkownika to dozwolona perswazja. Natomiast system, który wykorzystuje przekazy podprogowe (np. obrazy niewidoczne gołym okiem), aby skłonić użytkowników do określonego wyboru bez ich wiedzy i zrozumienia – to zakazana manipulacja.
Dla klasyfikacji takich systemów duże znaczenie ma też cel ich stosowania. W przypadku manipulacji chodzi o przyniesienie korzyści manipulatorowi kosztem autonomii i dobrego samopoczucia manipulowanej osoby. Natomiast perswazja ma na celu informowanie i przekonywanie, balansując interesy i korzyści dla obu stron. I tak system AI, który działa w sposób przejrzysty i analizuje emocje klientów w celu poprawy inter akcji z nimi i zapewnienia im wsparcia, pozostaje w granicach perswazji i nie zostanie zakazany. Z kolei taki, który w ukryty sposób wnioskuje o emocjach konsumentów, aby wykorzystać to do targetowania reklam i oferować produkty droższe wtedy, gdy użytkownik jest bardziej skłonny je kupić – stanowi już manipulację i jako taki od 2 lutego br. jest zakazany.
Wytyczne wskazują ponadto, że identyfikację zakazanych praktyk ułatwia brak zgody użytkownika. Np. system do nauki języków obcych z zastosowaniem technik podprogowych nie będzie manipulacyjny, jeśli działa w sposób przejrzysty i na podstawie świadomej i dobrowolnej zgody użytkownika.
Kłopotliwa klasyfikacja systemów
Wiele wątpliwości interpretacyjnych budzi klasyfikacja systemów sztucznej inteligencji służących do wyciągania wniosków na temat emocji. AI Act zakazuje ich w miejscu pracy lub w szkole. Wyjątkiem są zastosowania ze względów medycznych lub bezpieczeństwa. Wytyczne mówią m.in., że obserwacja, iż ktoś się uśmiecha, nie jest rozpoznawaniem emocji. W konsekwencji np. system AI, za pomocą którego nadawca telewizyjny śledzi, ile razy prezenterzy w jego programie uśmiechają się do kamery, nie stanowi rozpoznawania emocji, a więc nie jest zakazany.
Z drugiej strony wnioskowanie – na podstawie gestów czy mimiki – czy dana osoba jest szczęśliwa, to już rozpoznawanie emocji. Dlatego system AI, który wnioskowałby, że pracownik jest niezadowolony, smutny lub zły na klientów – został zakazany. Podobnie jak ten stwierdzający na podstawie głosu lub gestów, że uczeń jest wściekły i zaraz stanie się agresywny. ©℗