Wielkie korporacje latami w sekrecie lobbowały, by ważne obszary działania sztucznej inteligencji w ogóle nie były uregulowane - mówi Filip Konopczyński, specjalista ds. regulacji sztucznej inteligencji i nowych technologii w Fundacji Panoptykon.

W dwóch komisjach Parlamentu Europejskiego odbędzie się dziś głosowanie nad AI Act, czyli ramami prawnymi dotyczącymi wykorzystania sztucznej inteligencji. Jakie są jego główne założenia?

Prace nad przedstawioną przez Komisję Europejską propozycją trwają od dwóch lat. Dokument ma kompleksowo uregulować wprowadzanie na nasz rynek systemów opartych na sztucznej inteligencji. To pierwsza tego typu regulacja na świecie. Jej logika opiera się na analizie ryzyka, jakie stwarza zastosowanie tej technologii. Z tej perspektywy akt dzieli systemy AI na cztery kategorie i dla każdej wyznacza ramy działania.

Co to za kategorie?

Pierwszą są obszary zakazane, które obejmują takie rozwiązania, jak programy wykorzystujące podatności i słabości naszych mózgów, identyfikacja biometryczna w miejscach publicznych, systemy tzw. kredytu społecznego czy programy, które tworzą bazy rozpoznawania twarzy na podstawie masowego ściągania wizerunków z internetu lub kamer przemysłowych.

Dlaczego nie powinny być stosowane?

Ponieważ ich potencjalne negatywne skutki są znacznie wyższe od możliwych korzyści. Trudno sobie wyobrazić, że zapobiegnięcie kilku przestępstwom może usprawiedliwić policyjną inwigilację całej populacji, a tym właśnie byłoby wykorzystanie systemów rozpoznawania twarzy w czasie rzeczywistym na masową skalę. Kolejna kategoria odnosi się do obszarów, w których wykorzystanie AI może przynieść duże korzyści, o ile te systemy będą podlegać ścisłej kontroli i nadzorowi. To, co znajdzie się w tej kategorii, od początku negocjacji wywoływało dużo emocji. W PE toczyła się dyskusja o tym, jaki powinien być status AI stosowanej w zwalczaniu przestępczości, migracji czy kontroli granic. Koalicja European Digital Rights (EDRi), do której należymy, walczy, by ta ostatnia znalazła się w koszyku obszarów zakazanych, jednak część europosłów i rządów jest innego zdania. W uzgodnionym kompromisie mechanizm kwalifikowania systemów AI do kategorii wysokiego ryzyka jest niestety nieprzejrzysty. Taki status mają systemy AI, które są produktami lub elementami działania w ważnych sektorach (energetyka, ochrona zdrowia, ale też zabawki). Ale to nie wszystko.

ikona lupy />
Materiały prasowe
Jakie jeszcze systemy znajdą się w obszarach wysokiego ryzyka?

W tej kategorii znajdą się także programy, które mogą stanowić zagrożenie dla ludzkiego zdrowia, bezpieczeństwa czy praw podstawowych, a działają w takich obszarach, jak edukacja (przyjmowanie do szkół, dostęp do szkoleń), rynek pracy (rekrutacja, zarządzanie personelem), a także usługi publiczne, przeciwdziałanie przestępczości, sądownictwo czy wybory demokratyczne. W obecnej wersji katalog systemów wysokiego ryzyka jest skomplikowany i zawiera wiele wyjątków. Wolelibyśmy, aby systemy AI wykorzystywane w edukacji, w zarządzaniu pracownikami czy decydujące o dostępie do podstawowych usług (lekarza, świadczeń socjalnych, sądu) zawsze były uznawane za programy wysokiego ryzyka. Najbardziej niepokoi nas to, że aby system został uznany za system wysokiego ryzyka, musi zostać spełnione kryterium znaczącego prawdopodobieństwa zaistnienia szkód (prawnych, społecznych, środowiskowych). To w praktyce może być przedmiotem sporów i kontrowersji, co w teorii ma zostać doprecyzowane przez KE, która ma przygotować instrukcje i rekomendacje. Jako stronie społecznej udało się nam wpłynąć na inną ważną kwestię. W trakcie prac w PE dla twórców, importerów i podmiotów wdrażających systemy wysokiego ryzyka wprowadzono wymogi, z których najważniejszy to mechanizm oceny wpływu danego systemu na prawa podstawowe, demokrację czy środowisko. Dzięki temu kwestia dyskusji, czy AI jest dobra, czy zła, nie będzie miała charakteru filozoficznych dywagacji, ale oceny, czy dany system spełnia wymogi prawne lub jakie środki trzeba podjąć, aby zminimalizować potencjalne szkody.

AI Act wywołuje ostre konflikty czy panuje wokół niego konsensus?

Na szczęście są obszary, w których panuje zgoda, np. w kwestii zakazu wprowadzania systemów kredytu społecznego, który pozwalałby na systemową dyskryminację osób lub grup na podstawie danych wrażliwych, informacji o naszych zachowaniach (np. zakupowych) itp. Natomiast jest dużo obszarów, w których duże firmy z sektora technologicznego blokowały poprawki korzystne dla obywateli. Jeszcze dwa lata temu często słyszało się od biznesu, że regulacje AI są niepotrzebne, a rynek ureguluje się sam. Dziś już niemal nikt tak nie mówi.

Dlaczego?

Dla takiego obrotu sprawy było kluczowe wypuszczenie przez OpenAI ChatGPT, który stał się najszybciej ściąganą aplikacją w historii internetu. Media, opinia publiczna i politycy zrozumieli, że mamy do czynienia z technologią, która może zmienić wiele obszarów naszego życia, ale obywatele potrzebują nie tylko nowych funkcjonalności, lecz także jasnych reguł gry i możliwości dochodzenia swoich praw. Nie bez znaczenia były zarzuty wobec OpenAI o naruszenia praw autorskich, RODO czy zasad moderacji treści. Sądzę, że dla wszystkich stało się jasne, że jest potrzebne nam prawo, które sprawi, że wielkie, zazwyczaj zagraniczne firmy zaczną przestrzegać europejskich zasad. Niestety wielkie korporacje, które z jednej strony chwaliły się, jak bardzo leży im na sercu rozwój etycznej AI, w ostatnich latach w sekrecie lobbowały, by ważne obszary działania sztucznej inteligencji w ogóle nie były uregulowane. Chodzi m.in. o aplikacje wykorzystujące tzw. duże modele językowe, które w AI Act skategoryzowano jako AI ogólnego przeznaczenia, oraz modele podstawowe. W pewnym momencie wydawało się, że mogą one zostać uznane za przynależne do kategorii wysokiego ryzyka, ostatecznie jednak – prawdopodobnie w dialogu z przedstawicielami międzynarodowych koncernów – stworzono osobne przepisy.

Jakie są następne kroki w pracy nad regulacją?

Głosowanie plenarne, planowane na czerwiec. Jeśli projekt poprze większość europarlamentarzystów, rozpocznie się trialog, czyli procedura, w której przedstawiciele PE negocjują z przedstawicielami KE oraz Rady UE. Częściowo ma ona charakter techniczny, a częściowo polityczny, więc dużo jeszcze może się tu zmienić. Oznacza to, że wciąż będziemy musieli bacznie się przyglądać działalności polityków odpowiedzialnych za ten obszar na poziomie państw, ale także dużego biznesu, który za wszelką cenę będzie starał się wpłynąć na ich stanowiska. Mamy nadzieję, że proces negocjacji zakończy się do końca roku. Oczywiście sam akt wejdzie w życie później, co pozwoli wszystkim zapoznać się z nowymi wymogami i standardami. Liczymy, że nastąpi to jak najszybciej. Rozwój technologiczny nie stoi w miejscu, a obywatele, państwa i sektor prywatny potrzebują jasnych, pewnych i stabilnych regulacji. ©℗

Rozmawiała Anna Wittenberg