Sztuczna inteligencja może mieć wpływ na wykrywanie i ściganie przestępstw, co zdecydowanie zwiększa możliwości służb, ale wiąże się z zagrożeniami dla tradycyjnych zasad procesu karnego.

W czerwcu 2023 r. Parlament Europejski przyjął projekt aktu o sztucznej inteligencji (AI Act), którego głównym celem ma być stworzenie wspólnotowych ram prawnych dla produktów i usług korzystających z systemów sztucznej inteligencji. Ramy te mają wyznaczać przede wszystkim wspólne wartości europejskie – regulacje sektora sztucznej inteligencji powinny zatem być wprowadzane zgodnie z prawami i wartościami wynikającymi z traktatów i Karty Praw Podstawowych UE.

AI Act ma być przede wszystkim środkiem zapewniającym ustanowienie i funkcjonowanie rynku wewnętrznego, w tym realizacje unijnej strategii jednolitego rynku cyfrowego. Biorąc pod uwagę szybkość, z jaką rozwijają się technologie sztucznej inteligencji, oraz rozpiętość dziedzin, w których znajduje ona zastosowanie, słusznie stawia się pytanie, w jaki sposób systemy AI mogą wpłynąć na wymiar sprawiedliwości. Czy raczej – w jaki sposób powinny nań wpływać?

Ustawodawca unijny w AI Act zwraca uwagę na to, że wykorzystanie systemów sztucznej inteligencji przez organy ścigania może doprowadzić nie tylko do istotnej nierównowagi broni, lecz nawet do nadużyć, w tym nieuzasadnionej inwigilacji czy prewencyjnych aresztowań. Szczególnie istotne są tutaj dwa rodzaje zagrożeń. Pierwsza grupa odnosi się do ryzyka naruszenia praw podstawowych UE, w tym do skutecznego środka prawnego i rzetelnego procesu sądowego (art. 47 Karty Praw Podstawowych UE), jak również zasady domniemania niewinności i prawa do obrony (art. 48 Karty Praw Podstawowych UE). Druga grupa zagrożeń odnosi się do jakości systemów sztucznej inteligencji, które miałyby znaleźć zastosowanie przy wykonywaniu prawa przez organy ścigania i sądy w sprawach karnych. Zwrócono uwagę m.in. na ryzyko dyskryminacyjnego stosowania prawa w szczególności wówczas, gdy wykorzystany produkt oparty na systemie sztucznej inteligencji zostanie przeszkolony na podstawie niskiej jakości danych lub nie będzie spełniał wymogów wydajności czy dokładności, lub przed wprowadzeniem na rynek nie zostanie poddany odpowiednim testom.

Uwzględniając pozycję ustrojową i zadania organów postępowania karnego, zgodnie z AI Act, systemy sztucznej inteligencji wykorzystywane przez te podmioty w procesie stosowania prawa powinny być klasyfikowane jako systemy wysokiego ryzyka. W szczególności wówczas, gdy ich zastosowanie ma istotny wpływ na rozstrzygnięcie w sprawie lub może istotnie oddziaływać na obszar praw podstawowych. Co istotne, do organów ścigania w rozumieniu AI Act należy zaliczyć m.in. wszystkie organy lub podmioty, którym prawo państwa członkowskiego powierzyło sprawowanie władzy publicznej i wykonywanie jego władztwa w celu zapobiegania przestępstwom, prowadzenia dochodzeń w ich sprawie, wykrywania ich lub ścigania albo wykonywania kar kryminalnych, w tym także tych wykonujących zadania z zakresu ochrony przed zagrożeniami dla bezpieczeństwa publicznego i zapobiegania takim zagrożeniom.

Transparentność stosowania AI

Zgodnie z AI Act zasadą jest, aby systemy sztucznej inteligencji przeznaczone do interakcji z osobami fizycznymi były projektowane i opracowywane tak, aby ich użytkownik był odpowiednio wcześnie i w zrozumiały sposób informowany o tym, że ma do czynienia z takim systemem, chyba że wynika to w sposób oczywisty z okoliczności i kontekstu użytkowania. W szczególnych przypadkach taka wiadomość powinna objąć m.in. informacje o tym, jakie konkretnie funkcje oprogramowania są objęte działaniem systemów AI, czy działają one pod nadzorem człowieka oraz kto jest odpowiedzialny za objęty nimi proces decyzyjny.

Co oczywiste, obowiązek informacyjny jest wyłączony, gdy dane systemy sztucznej inteligencji są wykorzystywane do wykrywania przestępstw, zapobiegania im lub prowadzenia dochodzeń w ich sprawie i ich ścigania.

System sztucznej inteligencji generujący treści (lub manipulujący nimi), które fałszywie wydają się autentyczne lub zgodne z prawdą i które przedstawiają osoby, które wydają się mówić lub robić rzeczy, których nie powiedziały lub nie zrobiły, bez ich zgody (tzw. deep fake), powinien odpowiednio wcześnie i w zrozumiały sposób uwidaczniać informację o tym, że dana treść została sztucznie wygenerowana lub zmanipulowana, a także – w miarę możliwości – oznaczać osobę fizyczną lub prawną, która ją wygenerowała lub zmanipulowała.

AI Act przewiduje wprost uprawnienie organów ścigania do korzystania z systemów sztucznej inteligencji mających na celu wykrywanie deep fake’ów oraz zapobieganie przestępstwom związanym z ich wykorzystaniem, prowadzenie dochodzeń w ich sprawie i ich ściganie.

Zakaz profilowania i prognozowania zachowań

Unijny ustawodawca doszedł do wniosku, że systemy sztucznej inteligencji wykorzystywane przez organy ścigania lub w ich imieniu do tworzenia prognoz, profili lub ocen ryzyka zachowania przestępnego danej osoby mogą być zbyt ryzykowne. Zagrożenia dla praw podstawowych dostrzeżono zwłaszcza tam, gdzie profilowanie miałoby nastąpić w oparciu o cechy osobowości, lokalizację danej osoby, jej historię kryminalną. Wykorzystanie tych informacji w celu prognozowania wystąpienia przestępstwa uznano za działanie naruszające zasadę domniemania niewinności, a nawet godzące w godność człowieka. AI Act bezwzględnie zakazuje wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów sztucznej inteligencji przeznaczonych do opracowania oceny ryzyka popełnienia przez osobę fizyczną przestępstwa (w tym ponownego popełnienia przestępstwa) lub potencjalnego popełnienia przestępstwa (prognoza kryminologiczna) w oparciu o profilowanie osoby fizycznej lub o ocenę cech i właściwości osobowości, w tym miejsca przebywania danej osoby, lub wcześniejszych zachowań przestępczych osób fizycznych lub grup osób fizycznych.

(Nie)zakazana inwigilacja biometryczna

AI Act uznaje wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w publicznie dostępnych przestrzeniach za szczególnie inwazyjne dla przestrzeni praw i wolności. Zezwolenie na stosowanie takich systemów mogłoby doprowadzić do poczucia permanentnej inwigilacji, naruszając – poza wspomnianymi już wcześniej prawami podstawowymi – także prawa do prywatności osób poddanych działaniu tych systemów. Zauważono także, że przyzwolenie na nieskrępowaną inwigilację biometryczną stanowiłoby nieakceptowalne zagrożenie dla praworządności, mogąc wywierać skutek mrożący i zniechęcać do korzystania m.in. z wolności zgromadzeń.

Łatwo sobie przy tym wyobrazić sytuację, w której część z osób nie zostałaby nigdy zakwalifikowana do zatrzymania i przeszukania przez organy ścigania, a inni doświadczaliby tego codziennie. To właśnie ryzyko dyskryminacyjnego stosowania prawa stanowi istotne uzasadnienia zakazu stosowania takich systemów w Unii.

Zakaz ten nie ma jednak charakteru bezwzględnego. Dopuszcza się wykorzystanie systemów sztucznej inteligencji do analizy nagrań z publicznie dostępnych przestrzeni za pośrednictwem zdalnych systemów identyfikacji biometrycznej, wyłączając jednak prowadzenie tej analizy w czasie rzeczywistym. Korzystanie z takich systemów byłoby dozwolone po uprzednim uzyskaniu zgody sądu na ich wykorzystanie w celu egzekwowania prawa, gdy jest to konieczne do ukierunkowanego przeszukania związanego z konkretnym poważnym przestępstwem, do którego już doszło.

AI a zasady procesu karnego

Sam AI Act nie precyzuje dokładnie, w jaki sposób prawodawcy krajowi mieliby uregulować zakres stosowania sztucznej inteligencji w procesie karnym. Wyzwanie, jakie pojawia się na tym etapie, nie jest małe. Możliwości, jakie daje AI, mogą mieć wpływ na kształt prawa dowodowego, co wymagałoby m.in. odpowiedniego doprecyzowania zakazów dowodowych, ale także na sposób prowadzenia postępowania czy nawet orzekania. Nie bez znaczenia pozostaną uprawnienia oskarżonych i innych uczestników procesu, w tym pokrzywdzonych. Już teraz kontrowersje budzi możliwość wykorzystania zaawansowanego oprogramowania inwigilacyjnego przez ograny ścigania, zaś możliwości – zwłaszcza analityczne – stwarzane przez sztuczną inteligencję, zdecydowanie zwiększą ryzyka procesowe. Konstytucyjna zasada proporcjonalności w tym kontekście nabiera nowego znaczenia, zaś ustawodawcy krajowi powinni rozsądnie określić granice pomiędzy efektywnością postępowania karnego a pozostałymi wartościami, takimi jak prawo do prywatności czy równość broni w procesie. ©℗