Coraz częściej o losie obywatela w relacjach z państwem decydują nie urzędnicy, lecz sztuczna inteligencja.
„Maszyny w służbie państwa. Jak algorytmy wpływają na życie obywateli i obywatelek w Polsce i wybranych krajach regionu” – z tym zagadnieniem zmierzyli się badacze z różnych organizacji pozarządowych, którzy pod lupę wzięli rozwiązania funkcjonujące w Polsce, Czechach, Gruzji, Serbii, na Węgrzech, i Słowacji. Roboczo nazwano takie systemy mianem „alGOVrytmów”.
Jak opowiada Krzysztof Izdebski, dyrektor programowy Fundacji ePaństwo (będącej współautorem raportu), jedną z głównych motywacji do zajęcia się tematem było wdrożenie z początkiem stycznia 2018 r. w naszym kraju systemu losowego przydzielania sędziów do rozpatrywania spraw. Podobne systemy już funkcjonują np. w Gruzji, Serbii czy na Słowacji.
W Europie właśnie szykowany jest kolejny krok. Do końca tego roku Estonia planuje wdrożyć system sztucznej inteligencji decydujący o sprawach sądowych dotyczących drobnych przestępstw. – To może być pierwszy taki przypadek na świecie – zauważa w rozmowie z DGP Maciej Kawecki z departamentu zarządzania danymi w Ministerstwie Cyfryzacji. Pomysł budzi wiele kontrowersji, m.in. z powodu potencjalnych pomyłek systemu. Kawecki przypomina jednak, że chodzi przede wszystkim o odciążenie sądów, a w razie czego jest jeszcze druga instancja, tradycyjna, w której wszelkie wątpliwości mogą być wyjaśnione. Już kilka lat temu inżynierowie z University of Sheffield, University College London oraz University of Pennsylvania stworzyli system, który potrafi poprawnie przewidzieć wyrok sądu. Przewidział on orzeczenia Europejskiego Trybunału Praw Człowieka z trafnością ok. 80 proc. Czy to znaczy, że w pozostałych 20 proc. system zawiódł? Niekoniecznie. – W niektórych sprawach przy tych samych okolicznościach faktycznych to różni sędziowie, a więc ludzie, wydawali różne orzeczenia. Można więc zastanowić się, czy nie mamy do czynienia z błędem ludzkim aniżeli samego systemu sztucznej inteligencji – dywaguje Maciej Kawecki.
Autorzy raportu o „alGOV rytmach” wskazują, że automatyzowane podejmowanie decyzji występuje już w wielu obszarach, np. kontroli prędkości (system fotoradarów w Polsce czy Czechach), przydzielania spraw sędziom i urzędnikom państwowym, wyborze grupy do przeprowadzenia kontroli i inspekcji, przydzielania zasiłków społecznych (węgierski system łączenia danych o zasiłkach z zadłużeniem na rzecz państwa), rozpoznawania oszustw (np. polski STIR do namierzania wyłudzeń skarbowych), wstępnej selekcji kontrahentów w zamówieniach publicznych (np. w Czechach) czy rekrutacji do żłobków (rozwiązanie zastosowane we Wrocławiu).
Przy wdrażaniu takich rozwiązań zazwyczaj chodzi o odciążenie urzędników i przyspieszenie procesów. Jak mówi Magdalena Siwanowicz-Suska z Fundacji ePaństwo, brytyjski urząd ds. poważnych nadużyć finansowych stosuje algorytm, który pozwala przeglądać 600 tys. dokumentów dziennie. – Grupa prawników była w stanie przejrzeć ok. 3 tys. – dodaje.
Problemem jest jednak brak transparentności. – W żadnym z przypadków nie uzyskaliśmy dostępu do kodu źródłowego. Często powodem odmowy była kwestia praw autorskich, należących do zewnętrznych firm. Mimo że algorytmy są wdrażane w relacjach państwo – obywatel, kody często nie są dostępne nawet dla urzędników – zuważa Izdebski. W badanych krajach nie zidentyfikowano też żadnej instytucji, która nadzorowałaby to, jakie systemy automatycznego podejmowania decyzji są wykorzystywane przez dane państwo. To samo, jeśli chodzi o sposób, w jaki one działają. – Robią to np. firmy, które te algorytmy stworzyły, co generuje pewien konflikt interesów, bo w interesie firmy nie jest wykazywanie słabości swojego systemu – zwraca uwagę Krzysztof Izdebski.
Zdaniem Katarzyny Szymielewicz z Fundacji Panoptykon społeczeństwo nie musi koniecznie znać kodów źródłowych – wystarczyłoby, gdyby znała je instytucja wykorzystująca dany algorytm. – Nie przyjmuję jednak tłumaczeń administracji, że nie może ujawniać zasad działania algorytmów, bo jeśli ujawni tę tajną logikę, to pojawią się jakieś próby oszustwa – zastrzega.
Autorzy raportu rekomendują powołanie organu koordynującego na szczeblu rządowym (może KPRM, może MC) zagadnienie alGOVrytmów, wprowadzenie oceny skutków wdrażania takich algorytmów (na zasadzie oceny skutków regulacji), jawność dostępu do kodów źródłowych czy opracowanie systemu kontroli poprawności działania algorytmów.