Coraz większa liczba krajów w Europie testuje w miejscach publicznych systemy rozpoznawania twarzy. Według Parlamentu Europejskiego problem nie dotyczy Polski.
Coraz większa liczba krajów w Europie testuje w miejscach publicznych systemy rozpoznawania twarzy. Według Parlamentu Europejskiego problem nie dotyczy Polski.
Z opublikowanego właśnie raportu sporządzonego na zlecenie Parlamentu Europejskiego wynika, że 11 państw UE dopuszcza korzystanie z technologii rozpoznawania twarzy do wykrywania przestępstw. Są to Austria, Finlandia, Francja, Grecja, Holandia, Litwa, Łotwa, Niemcy, Słowenia, Węgry i Włochy. Osiem kolejnych – Chorwacja, Cypr, Czechy, Estonia, Hiszpania, Portugalia, Rumunia i Szwecja – przygotowuje się do tego. Według tej publikacji w Polsce dopuszczenie do użycia technologii wykrywania twarzy w ściganiu przestępstw nie jest na razie planowane.
– Oficjalnie w Sejmie nie toczą się żadne prace legislacyjne dotyczące możliwości korzystania przez służby z technik rozpoznawania twarzy – potwierdza poseł Marek Biernacki z Koalicji Polskiej, który zasiada w sejmowej komisji służb specjalnych. W dokumencie odnotowano jednak, że polskie władze zdecydowały się zastosować rozpoznawanie twarzy przy sprawdzaniu, czy osoby poddane kwarantannie rzeczywiście dotrzymują jej wymogów. Na takie rozwiązanie w Unii Europejskiej zdecydowały się jedynie Polska i Węgry.
Użycie wizerunku do odblokowania telefonu czy logowania się na konto bankowe to nic nowego. Ale możliwości wykorzystania takiej technologii nie kończą się na podpisywaniu zdjęć na Facebooku. Problem jest znacznie poważniejszy. Sztuczna inteligencja jest wykorzystywana przez Chiny do kontrolowania mieszkańców Sinciangu na zachodzie kraju i represjonowania mniejszości ujgurskiej. Technologie te są coraz częściej wykorzystywane także przez policję w Europie. Traktuje się je jako udoskonalenie upowszechnionego w wielu miastach tradycyjnego monitoringu (CCTV), a ten jest legalny, jeśli służy bezpieczeństwu. Scenariusz jest typowy: oprogramowanie dopasowuje zdjęcie podejrzanego wyodrębnione z nagrania CCTV do tych, które ma w dostępie, np. z baz danych praw jazdy. Takie technologie stosowała Wielka Brytania, ale sąd nakazał jej wstrzymanie użycia, ponieważ brakowało ku temu podstawy prawnej.
Raport podkreśla, że rozpoznawanie twarzy pozostaje w fazie testów i nie jest rozwijane na masową skalę. Problem polega jednak na tym, że im więcej tego typu narzędzi się pojawi i im większe będzie sprzężenie danych zbieranych na nasz temat, tym większe będzie ryzyko masowej inwigilacji. Ma to rozwiązać rozporządzenie zaproponowane w kwietniu przez Komisję Europejską, które ma ujednolicić przepisy w UE. Reguły zostaną dostosowane do kategorii ryzyka, z jakim użycie technologii wykrywania twarzy będzie się wiązać (poziom nieakceptowalny, wysoki i niski). Tym bardziej że jeśli jakaś technologia nie została zalegalizowana, to nie oznacza, że nie znajduje się już w użyciu.
Przykładem jest lotnisko w Brukseli. Po zamachu z 2016 r. władze lotniska Zaventem kupiły cztery kamery z możliwością rozpoznawania twarzy, co uzgodniły z firmą ochroniarską i związkami zawodowymi. Nie wiedziała jednak o tym belgijska policja, która potem uznała ten ruch za nielegalny. Sprawa wyszła na jaw dopiero w 2019 r. Władze lotniska przyznały, że zapis z kamer był wykorzystywany do rozpoznawania twarzy. Oprogramowanie badało, czy zarejestrowane wizerunki odpowiadają twarzom znajdującym się na czarnej liście. Szybko okazało się jednak, że liczba błędnych dopasowań była zbyt duża. Mimo to kontynuowano rozpoznawanie twarzy pasażerów lotniska.
Jak to wygląda w Polsce? – Nie słyszałem, by ktoś się przymierzał do wprowadzenia takich rozwiązań. Ale gdy rozpoczęła się pandemia COVID-19, w Gdyni przeprowadzano pewien eksperyment. System monitoringu miejskiego otrzymał specjalną nakładkę do wykrywania skupisk ludzkich. To było w marcu 2020 r., ale nie jest dalej rozwijane, a Gdynia już tego nie stosuje. Co ciekawe, twórcy tego oprogramowania udostępnili je publicznie i można mieć w nie wgląd – mówi Krzysztof Izdebski, ekspert ds. prawa nowych technologii. Jak informowali urzędnicy, w 18 z prawie 140 kamer monitoringu miejskiego działał „wyzwalacz detekcji tłumu”, który miał generować alarm przy pojawieniu się w danym miejscu grupy ludzi. To algorytm sztucznej inteligencji, który stworzyła firma Tooploox w ramach projektu HackTheCrisis.
O ile w Polsce nikt nie stwierdził wykorzystania technik wykrywania twarzy przez służby, to dwa lata temu TVN24 podał, że Centralne Biuro Antykorupcyjne korzysta z systemu Pegasus, dzięki któremu można pozyskiwać na dużą skalę dane z telefonów komórkowych i bez wiedzy użytkownika telefonu podłączać się do kamery urządzenia. Rzecznik praw obywatelskich zwrócił uwagę, że „w przypadku działania systemu Pegasus problemem jest jednak nie tylko nieproporcjonalne wykorzystanie zasadniczo dopuszczalnych środków, lecz w ogóle działanie służb bez żadnej podstawy prawnej, co wyklucza badanie proporcjonalności. W kontekście domniemanego zakupu systemu i użytkowania go przez polskie służby państwowe – jeżeli potwierdzą się ustalenia dziennikarzy – istnieje niemal pewność, że konstytucyjna zasada legalizmu została naruszona”.
Sprawą zajmowała się później sejmowa komisja ds. służb specjalnych, ale posiedzenie było zamknięte, a posłowie sprawy nie komentowali. Nie jest jasne, jak zaawansowane są możliwości tego systemu, jeśli chodzi o rozpoznawanie twarzy. – Nie mamy dowodów na to, że obecnie jakieś służby korzystają z takich technik w Polsce. Ale jedna ze szkół na Pomorzu weryfikowała, poprzez odciski palców, czy uczniowie zapłacili za obiady. Sprawa trafiła do Urzędu Ochrony Danych Osobowych, a w końcu do Naczelnego Sądu Administracyjnego – opisuje Wojciech Klicki z Fundacji Panoptykon. – Ten wyrok będzie istotnie określał, w jakim stopniu polskie urzędy będą mogły wykorzystywać dane biometryczne obywateli. Ale to nie musi się przełożyć na służby – dodaje.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Reklama
Reklama