Nowa definicja systemu sztucznej inteligencji, zawężenie grupy systemów wymagających szczególnego nadzoru i zmiany w składzie unijnej rady ds. sztucznej inteligencji – to najważniejsze zmiany w projekcie unijnego rozporządzenia regulującego SI zaproponowane przez czeską prezydencję.

Projekt całościowej regulacji wykorzystania narzędzi opartych na sztucznej inteligencji przedstawiła w kwietniu ubiegłego roku Komisja Europejska. Rozporządzenie ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji, bo tak brzmi pełna nazwa aktu, ma zagwarantować, że wykorzystywane w Unii systemy SI będą bezpieczne i nie zagrożą podstawowym prawom mieszkańców UE. Komisja deklaruje też, że nowymi przepisami chce ułatwić dalszy rozwój nowych technologii, stwarzając przedsiębiorcom jednolite ramy prawne na terenie całej Unii.
– Systemy sztucznej inteligencji są stosowane o wiele częściej, niż nam się wydaje. Są one już na tyle rozpowszechnione, że uregulowanie tego obszaru rzeczywiście jest potrzebne, również ze względu na ryzyko wykorzystywania SI do ingerencji w podstawowe prawa i wolności. Najlepiej to niebezpieczeństwo obrazuje system zaufania społecznego funkcjonujący w Chinach – ocenia dr Zbigniew Okoń, partner w kancelarii Maruta Wachta specjalizujący się w prawie nowych technologii.
Prawnik zauważa, że unijne rozporządzenie to pierwsza próba kompleksowej regulacji SI. – Mam wrażenie, że Unia, która była pionierem w ochronie danych osobowych, może chcieć odegrać podobną rolę w obszarze regulowania sztucznej inteligencji i stać się wzorem do naśladowania dla innych państw – mówi Okoń.

3 tys. poprawek

Prace nad finalnym tekstem rozporządzenia toczą się równolegle w Parlamencie Europejskim i Radzie UE. W kwietniu wstępną wersję stanowiska parlamentu zaproponowali sprawozdawcy komisji ds. rynku wewnętrznego i konsumentów oraz komisji wolności obywatelskich, sprawiedliwości i spraw wewnętrznych. Można być jednak pewnym, że dokument ulegnie jeszcze modyfikacjom. Deputowani zdążyli złożyć już łącznie ponad 3 tys. poprawek do projektu. Poszczególne ugrupowania w PE różnią się w większości zasadniczych kwestii: od samej definicji sztucznej inteligencji, przez zakazane sposoby jej wykorzystania, po wysokość kar dla firm naruszających nowe przepisy.
Spornych kwestii nie brakuje też w dyskusjach pomiędzy reprezentantami rządów unijnych państw. Pierwszy całościowy rezultat rozmów na tym forum ujrzał światło dzienne w czerwcu. Sprawujący wówczas przewodnictwo w Radzie UE Francuzi przedstawili kompromisowy projekt rozporządzenia. 20 lipca na zamkniętym posiedzeniu grupy roboczej ds. telekomunikacji i społeczeństwa informacyjnego wersję z dalszymi poprawkami pokazali przewodniczący Radzie od 1 lipca Czesi. Z dokumentu przekazanego krajowym delegacjom wynika, że to jeszcze nie koniec – państwa mogą zgłaszać dalsze uwagi jeszcze do września. Można jednak przypuszczać, że przynajmniej część rozwiązań przekazanych już członkom Rady będzie bazą do formowania ostatecznego kształtu rozporządzenia w toku negocjacji Rady z PE.
Zgodnie z najnowszą propozycją zawężeniu uległa definicja systemu sztucznej inteligencji. W pierwotnej wersji obejmowała ona każde oprogramowanie wykorzystujące określone techniki generujące treści, prognozy, zalecenia i decyzje na podstawie dostarczonych danych. Teraz dodano wymóg, by system odznaczał się „pewnym stopniem autonomii”. Problemom ze stosowaniem w praktyce przepisu zawierającego to mgliste określenie mogą przynajmniej częściowo zapobiegać nowe fragmenty preambuły rozporządzenia. Umieszczono w niej bowiem przykłady konkretnych metod wykorzystywanych w rozwijaniu SI, które mają zostać objęte regulacją.
– Definicja z projektu przedstawionego przez KE była wadliwa. Skonstruowano ją w ten sposób, że objęłaby np. filtr antyspamowy poczty elektronicznej. Propozycja Rady jest już lepsza, choć oczywiście problemem będzie stwierdzenie, kiedy stopień autonomii jest wystarczający do tego, żeby można było mówić o SI – uważa Zbigniew Okoń.

Czego zabronić, co kontrolować

Po wprowadzeniu problematycznej definicji rozporządzenie dzieli systemy wykorzystujące sztuczną inteligencję według ryzyka, jakie mogą one stwarzać. Część z nich ma zostać całkowicie zakazana. Do tej grupy należą techniki wpływania na ludzkie zachowanie podprogowo lub z wykorzystaniem słabości wynikających z wieku, niepełnosprawności bądź sytuacji ekonomicznej. Zakazane ma być też funkcjonowanie rozwiązań podobnych do znanego z Chin systemu zaufania społecznego.
Projekt Rady UE, inaczej niż ten przedstawiony w kwietniu w parlamencie, nie przewiduje natomiast zakazu wykorzystania sztucznej inteligencji do stawiania prognoz co do ryzyka popełnienia w przyszłości przez określone osoby przestępstw. Chodzi tu np. o wykorzystywane w USA oprogramowanie mające wspierać sędziów w wydawaniu wyroków poprzez określenie prawdopodobieństwa powrotu oskarżonego na przestępczą drogę. Algorytm robi to na podstawie informacji o oskarżonym i jego przeszłości oraz historycznych danych o innych skazanych i ich postępowaniu po wyroku. Poparcie przez PE zakazu takich narzędzi pozytywnie przyjęła sformowana w ubiegłym roku koalicja ponad 100 europejskich organizacji pozarządowych zajmujących się prawami człowieka i regulacjami przestrzeni cyfrowej. Przedstawiciele koalicji nawołują do objęcia zakazem także mogących służyć policji prognoz nasilenia się przestępczości w określonych obszarach. Na razie jednak, w obliczu rozbieżności między Radą UE a PE, nie jest pewne, czy w rozporządzeniu w ogóle będzie mowa o podobnych systemach.
Poziom poniżej kategorii zakazanych zastosowań SI znajdują się zastosowania wysokiego ryzyka – dopuszczalne, ale wiążące się ze szczególnymi obowiązkami podmiotów, które je projektują i wykorzystują.
Wśród tych obowiązków znajduje się stałe monitorowanie funkcjonowania systemu, trenowanie i testowanie go z wykorzystaniem zbiorów danych spełniających określone standardy i możliwość ingerencji człowieka w jego działanie na każdym etapie. Właśnie ta kategoria ma zostać zgodnie z najnowszą propozycją Rady UE uszczuplona. Wykreślone zostały z niej algorytmy służące do kontroli emisji i zanieczyszczeń środowiska, wykorzystywane w branży ubezpieczeniowej, wykrywające fakes (łączenie obrazów twarzy ludzkich przy użyciu technik SI) na rzecz policji oraz weryfikujące autentyczność dokumentów.
Skąd ta zmiana? Tego z dokumentu przesłanego delegacjom krajowym nie da się dowiedzieć. Również z preambuły do rozporządzenia usunięto wzmianki o tym, że niepożądane działanie narzędzi monitorujących emisje stwarza ryzyko nieodwracalnych szkód dla środowiska i ludzkiego zdrowia, a źle zaprojektowane systemy wykorzystywane przez ubezpieczycieli mogą prowadzić do podejmowania decyzji o poważnych, dyskryminacyjnych skutkach dla jednostek.

Więcej precyzji

– Projekt w obecnym kształcie jest o wiele lepszy od pierwotnej wersji przedstawionej przez Komisję Europejską w ubiegłym roku. Poprawki obrazują wzrost świadomości unijnych legislatorów w obszarze sztucznej inteligencji. Widać, że zmiany zmierzają ku dookreśleniu pojęć i większej przejrzystości oraz precyzji języka – ocenia najnowszą propozycję Rady Marta Kowalczuk-Kędzierska z kancelarii Sołtysiński Kawecki & Szlęzak.
Przykłady zwiększonej przejrzystości? Doprecyzowane zostały ogólne przesłanki zaliczenia do systemów wysokiego ryzyka.
– W przeciwieństwie do poprzedniej wersji obecny projekt przyjmuje, że systemami wysokiego ryzyka są po pierwsze te, których rezultaty wywołują natychmiastowe skutki w odniesieniu do zamierzonego celu, bez potrzeby ich walidacji przez człowieka. Drugi przypadek to systemy, których rezultaty składają się z informacji stanowiącej jedyną podstawę do podjęcia działań lub decyzji lub których charakter nie jest wyłącznie akcesoryjny w odniesieniu do działania lub decyzji, które mają być podjęte przez człowieka, i z tych względów mogą stwarzać znaczne zagrożenie dla zdrowia, bezpieczeństwa lub praw podstawowych jednostek. To uściślenie to krok w dobrą stronę – twierdzi prawniczka.
W wersji rozporządzenia przedstawionej przez Czechów przewidziano też inny skład i nowe zadania dla mającej powstać europejskiej rady ds. sztucznej inteligencji. Nowy organ miałby teraz składać się wyłącznie z przedstawicieli unijnych rządów, a nie, jak wcześniej zakładano, także reprezentantów biznesu, nauki i organizacji pozarządowych. Opinia tych środowisk nadal ma być brana pod uwagę dzięki włączeniu ich w prace specjalnej grupy doradczej. Odchudzona rada zgodnie z nowymi założeniami będzie nie tylko doradzała Komisji Europejskiej w sprawach wynikających z nowych przepisów, lecz również wspierała państwa członkowskie we wdrażaniu rozporządzenia na krajowym podwórku.
Po wakacyjnej przerwie do prac nad regulacjami powrócą zarówno członkowie PE, jak i Rada UE. Ta druga, po zebraniu pisemnych uwag od państw członkowskich, ma zająć się kolejną wersją jeszcze we wrześniu. W PE czas na zgłaszanie poprawek już minął, ale według osób bliskich temu procesowi legislacyjnemu ostatecznych głosowań w obydwu gremiach raczej nie można spodziewać się wcześniej niż pod koniec roku.©℗