2,6 tys. firm zostanie skontrolowanych przez ZUS pod kątem opłacanych przez nie składek. Podmioty wytypowała sztuczna inteligencja
Zakład Ubezpieczeń Społecznych przetwarza o swoich klientach ok. 200 TB danych. To mniej więcej tyle, ile 78 mln stron dokumentów tekstowych czy PDF. Samych zwolnień lekarskich trafia do instytucji ok. 2 mln miesięcznie. Jak przyznaje jej kierownictwo, to ilość, która uniemożliwia skuteczną kontrolę pracownikom – jest ich po prostu zbyt mało.
Dlatego właśnie ZUS postawił na systemy wykorzystujące uczenie maszynowe. – Korzystając z posiadanych przez nas danych, wyodrębniamy elementy ryzyka i przypisujemy im wagi. W ten sposób kalibrujemy nasze algorytmy – wyjaśnia wiceprezes ZUS Paweł Jaroszek. Dzięki temu system informatyczny jest w stanie wskazać czerwone flagi. Co jest istotnym parametrem? Jak wyjaśnia, np. dotychczasowa historia zwolnień. AI pomaga wykrywać pacjentów wymuszających na lekarzach zwolnienia, a także lekarzy, którzy wystawiają zwolnienia nienależne. Jeśli okaże się, że pacjent wyłudzał zwolnienie lekarskie, informacja o tym nie trafia jednak do systemu opieki zdrowotnej. Kolejny lekarz nie ma więc dostępu do takiej wiedzy.
Jak przyznają urzędnicy ZUS, system w zakresie wykrywania nienależnych zwolnień okazał się na tyle dużym sukcesem, że teraz algorytmy są implementowane także do kontroli przedsiębiorców. ZUS chce za pomocą AI wykrywać nieprawidłowości w przypadku płatników składek. – Model oparty na sztucznej inteligencji wytypował 2,6 tys. podmiotów, do których trafią teraz nasi kontrolerzy – informuje Jaroszek. Dodaje jednak, że analiza za pomocą AI to dopiero pierwszy krok. – Wynikom pracy algorytmów przyglądają się jeszcze analitycy. Nie odważyłbym się powiedzieć, że tam, gdzie idzie nasz kontroler, na pewno są nieprawidłowości. Ale w miejscach wytypowanych przez nasze systemy ryzyko na pewno jest wyższe – ocenia.
Jak zapewnia, ostateczną decyzję o ewentualnych karach czy dalszych krokach będą podejmować ludzie. Po kontrolach przeprowadzonych przez ZUS instytucja zbierze od kontrolerów informację zwrotną, która zostanie później wykorzystana do dalszego szkolenia algorytmów.
Nadzór człowieka nad AI to jeden z najważniejszych czynników budujących zaufanie do technologii – wynika z badań przeprowadzonych przez GfK dla fundacji Digital Poland. 40 proc. ankietowanych uznało za bardzo ważne, by podlegały one ludzkiej kontroli. To może się okazać szczególnie ważne, jeśli chodzi o zastosowanie AI w sektorze publicznym – tylko 11 proc. Polaków wskazuje, że rząd lub administracja centralna są godne zaufania, jeśli chodzi o rozwiązanie i wykorzystanie systemów AI. Dla porównania – dwukrotnie więcej ufa w tym względzie wielkim firmom technologicznym.
Nic dziwnego – obywatele obawiają się dystopijnych scenariuszy, w których to algorytmy będą miały kontrolę nad ich życiem. Tak właśnie było w Holandii. W 2019 r. lokalne media ujawniły, że holenderskie organy podatkowe wykorzystały uczenie maszynowe do tworzenia profili ryzyka w celu wykrycia oszustw związanych z zasiłkami na opiekę nad dziećmi. Władze karały rodziny już za samo to, że system flagował je jako potencjalnie dokonujące nadużyć. Dziesiątki tysięcy mieszkańców musiały zwrócić zasiłki, co skutkowało falą samobójstw. W dodatku okazało się, że jednym ze znaczących czynników ryzyka było pochodzenie etniczne biorców świadczeń. Holenderskim organom podatkowym grozi teraz grzywna w wysokości 3,7 mln euro od krajowego odpowiednika Urzędu Ochrony Danych Osobowych.
Czy takie systemy są stosowane w Polsce? Od września staramy się to ustalić w Ministerstwie Rodziny, Pracy i Polityki Społecznej. W odpowiedzi na interpelację poselską Hanny Gill-Piątek (KO), w której posłanka pytała o wykorzystanie AI w pracy resortu, znalazła się informacja, że „w systemach teleinformatycznych wspomagających realizację statutowych zadań przez jednostki organizacyjne zabezpieczenia społecznego i rodziny oraz urzędy pracy zaimplementowane są algorytmy wspomagające urzędników w wydawaniu decyzji administracyjnych w oparciu o dane zgromadzone w sprawie”.
Chcieliśmy wiedzieć, jakie konkretnie jednostki organizacyjne zabezpieczenia społecznego i rodziny zostały wyposażone w algorytmy wspomagające urzędników. Na czym polega ich działanie? W jakich sprawach i w jakim zakresie pomagają urzędnikom? Co to za systemy – kto jest ich dostawcą, ile kosztowały? A także kto sprawuje nadzór nad tymi systemami? Pytania pozostały jednak bez odpowiedzi. ©℗