To smutny dzień, gdy rzecznik praw obywatelskich rzuca ręcznik na ring jeszcze przed pierwszym ciosem – tak jak zrobił to w sprawie sztucznej inteligencji. Ale od początku.

Zgodnie z unijnym rozporządzeniem – Akt o sztucznej inteligencji (AI Act) organy lub podmioty publiczne państw członkowskich, które nadzorują lub egzekwują przestrzeganie obowiązków wynikających z prawa Unii w zakresie ochrony praw podstawowych, w tym prawa do niedyskryminacji, w odniesieniu do wykorzystywania systemów AI wysokiego ryzyka mogą uzyskać prawo dostępu do dokumentacji dotyczącej wykorzystywania takich systemów. To ważne uprawnienie, bo ma służyć ochronie praw osób – do czego podmioty te zostały powołane – w zderzeniu z systemami sztucznej inteligencji, które mają znaczący, szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe, bo właśnie takie zostaną na gruncie rozporządzenia AI Act sklasyfikowane jako systemy wysokiego ryzyka.

Mogą to być systemy do rozpoznawania emocji, kategoryzacji biometrycznej, oceny zdolności kredytowej, kwalifikowania do świadczeń opieki zdrowotnej, oceny przy przyjmowaniu do szkoły czy pracy itd. Znajdą się w każdej dziedzinie życia obywateli Unii Europejskiej. Stąd też potrzeba specjalnych uprawnień dla organów ochrony praw podstawowych, aby mogły skutecznie działać, gdy dana sprawa wiąże się z zastosowaniem AI wysokiego ryzyka.

Wykaz tych instytucji każde państwo miało opublikować i przekazać Komisji Europejskiej oraz pozostałym państwom członkowskim do 2 listopada. I tu niespodzianka: na polskiej liście, którą sporządziło Ministerstwo Cyfryzacji, zabrakło rzecznika praw obywatelskich. A przecież wydawałoby się, że powinien tam figurować na pierwszym miejscu. Tymczasem na liście są tylko: rzecznik praw dziecka, rzecznik praw pacjenta i Państwowa Inspekcja Pracy.

Jeżeli więc z systemem sztucznej inteligencji wysokiego ryzyka zderzy się człowiek pełnoletni, który akurat nie choruje, a sprawa nie będzie dotyczyła tego, jak AI ocenia jego pracę, to na placu boju o swoje prawa podstawowe zostanie sam.

W mediach społecznościowych za pominięcie rzecznika praw obywatelskich obwiniono najpierw Ministerstwo Cyfryzacji. Odparło ono jednak, że proponowano wpisanie RPO na listę, ale… nie chciał.

Spytaliśmy u źródła i Biuro RPO przesłało nam swoje pismo do resortu cyfryzacji. Profesor Marcin Wiącek rzeczywiście stwierdza w nim, że „w obecnym stanie prawnym Rzecznik Praw Obywatelskich nie może zostać uznany za organ właściwy w zakresie «nadzorowania lub egzekwowania przestrzegania obowiązków wynikających z prawa Unii w zakresie ochrony praw podstawowych w odniesieniu do wykorzystywania systemów AI wysokiego ryzyka»”.

Dlaczego? Wychodzi na to, że trochę z biedy, a trochę z nieśmiałości.

Na wstępie rzecznik wskazuje, że z unijnego rozporządzenia wynika, iż „właściwość organu ochrony praw podstawowych w dziedzinie AI ma obejmować nie tylko instytucje publiczne, lecz także prywatne, tj. przedsiębiorców, pracodawców, firmy telekomunikacyjne, prywatne szkoły itd”. To problem, bo zdaniem RPO zajmowanie się tym sektorem jest nie do pogodzenia z konstytucyjnym i ustawowym statusem rzecznika praw obywatelskich, którego kompetencje „odnoszą się zasadniczo tylko do instytucji publicznych”.

Co mogłoby się stać, gdyby rzecznik wziął w obronę obywatela dyskryminowanego przez system sztucznej inteligencji wykorzystany przez prywatną firmę? „Szczególnie problematyczne byłyby interwencje RPO w sprawach systemów AI używanych przez przedsiębiorców, którzy mogliby się uchylać od odpowiedzi na pytania rzecznika, powołując się m.in. na brak kompetencji w tym zakresie czy na tajemnicę przedsiębiorstwa” – pisze prof. Wiącek do wiceministra cyfryzacji Dariusza Standerskiego.

Nie przekonuje mnie to jako argument za tym, aby zostawić obywateli bez pomocy w zderzeniu z technologią, która budzi tyle obaw o nadmierną ingerencję w nasze życie. No ale dziennikarze zasadniczo nie lękają się przedsiębiorców, którzy mogliby się uchylać od odpowiedzi.

Idźmy dalej. Pozostaje przecież sztuczna inteligencja w sferze publicznej. RPO przyznaje, że włączenie go w system nadzoru wykorzystania systemów AI wysokiego ryzyka przez podmioty publiczne byłoby możliwe. A ściślej, byłoby możliwe na gruncie prawa – tyle że i tak rzecznik nie może się tego podjąć, bo wiązałoby się to z „przyznaniem mu dodatkowych obowiązków”.

Jakich? Wyznaczony organ ma przyjmować zgłoszenia poważnych incydentów związanych z nieprawidłowościami w działaniu systemów AI wysokiego ryzyka. Musi też współpracować z organami nadzoru rynku i operatorami systemów AI oraz konsultować możliwe zagrożenia systemów AI dla praw podstawowych. Wypełnianie tych zadań wymagałoby „nie tylko wiedzy z zakresu prawa nowych technologii (którym eksperci Biura RPO zajmowali się dotychczas w niewielkim stopniu), ale także specjalistycznej wiedzy z takich dyscyplin jak informatyka, ochrona zdrowia, ekonomia czy psychologia” – podkreśla prof. Wiącek. I przypomina, że i bez tego ma dużo roboty. Co roku rozpatruje ok. 80 tys. skarg od obywateli, interweniuje w setkach postępowań sądowych, monitoruje więzienia itd. A od grudnia będzie też odpowiedzialny za pomoc sygnalistom.

Konkludując: RPO nie może się podjąć ochrony praw podstawowych w przypadku wykorzystywania systemów AI wysokiego ryzyka przez podmioty prywatne, bo ma ręce związane ustawą zasadniczą i ustawą o RPO. A sztuczną inteligencją wykorzystywaną przez podmioty publiczne nie zajmie się, bo nie ma rąk do pracy.

Tu opadają ręce, ale kurtyna jeszcze nie całkiem. Zgodnie z AI Act wykaz organów ochrony praw podstawowych nie jest bowiem zamknięty. Nie jest więc za późno, by RPO zmienił zdanie, zanim źle użyty system AI znokautuje naszą godność, prywatność, prawo do niedyskryminacji, bezstronnego sądu i inne prawa podstawowe. ©℗

RPO przyznaje, że włączenie go w system nadzoru wykorzystania systemów AI wysokiego ryzyka przez podmioty publiczne byłoby możliwe. A ściślej, byłoby możliwe na gruncie prawa – tyle że i tak rzecznik nie może się tego podjąć, bo wiązałoby się to z „przyznaniem mu dodatkowych obowiązków”