Dokąd zmierza AI w Polsce? Ramy prawne ustalił AI Act i nie warto czekać na terminy realizacji obowiązków wynikających z rozporządzenia.

Wiele emocji wzbudziło spotkanie Grupy Roboczej ds. AI (GRAI) zorganizowane niedawno przez Ministerstwo Cyfryzacji. Uczestniczyło w nim ok. 300 osób, 100 w siedzibie ministerstwa i 200 online – do czego przyczyniło się upublicznienie informacji o planowanym wydarzeniu i stworzenie możliwości zgłaszania się przez każdego chętnego.

Media społecznościowe zostały wręcz zasypane zdjęciami ze spotkania i różnymi wzmiankami na temat udziału w nim poszczególnych osób. W czasie samego spotkania wypowiedziało się co najmniej kilkadziesiąt osób reprezentujących różne środowiska – naukowe, przedsiębiorców, organizacji społecznych, podmiotów publicznych. Jasno to pokazuje, jak bardzo ważny jest temat regulacji prawnych systemów sztucznej inteligencji i wsparcia dla polskich przedsiębiorców i środowiska naukowego w obszarze AI. Z wielu wypowiedzi przebijały szczery entuzjazm i chęć włączenia się w doradztwo na rzecz poprawy warunków dla realizacji w Polsce projektów dotyczących sztucznej inteligencji. Suma tych wypowiedzi nie daje jednak żadnego konkretnego planu działania. Otrzymaliśmy jedynie mozaikę wielu różnorodnych postulatów.

Geneza GRAI

Grupa Robocza ds. AI została powołana na początku 2022 r. jako kolejna grupa robocza przy Ministerstwie Cyfryzacji (łącznie jest ich aż siedem). Ciekawostką jest to, że brak jest wyraźnej podstawy prawnej dla ich działania, a ich cele tak naprawdę pokrywają się z zadaniami organów państwa. Przykładowo celem GRAI było m.in. wypracowanie rekomendacji służących zapewnieniu w Polsce odpowiednich warunków dla rozwoju zastosowań AI w przedsiębiorstwach i w sektorze publicznym.

Dotychczasowa działalność GRAI sprawiała wrażenie pospolitego ruszenia – każdy mógł się zgłosić (dostawcy technologii, przedstawiciele firm, szkół wyższych, organizacji poza rządowych i przedstawiciele instytucji publicznych) i nikt nie badał motywacji zgłaszających się, członkowie dziewięciu utworzonych podgrup sami decydowali, czym mają się zajmować. Tempo prac było różne, podobnie jak rezultaty – zazwyczaj w formie opisowych raportów. Od czasu do czasu organizowano konferencje, w czasie których można było wygłosić wykład na zaproponowany przez siebie temat.

Za udział w pracach nie ma wynagrodzenia. Niektórzy członkowie grup odbierali je w formie selfie ze spotkań do publikacji w social mediach lub dodawali sobie do CV dodatkowe doświadczenie. W raportach pojawiały się znaki towarowe firm reprezentowanych przez członków grupy – co można traktować jak rodzaj promocji wynagradzającej aktywność przedstawicieli firmy w ramach GRAI.

Istnienie GRAI było na pewno wygodne dla rządu jako dowód aktywności państwa polskiego w dziedzinie sztucznej inteligencji. Coś się działo, coś można było zawrzeć w sprawozdaniu. Niewiele chyba jednak miało to wspólnego z realizacją chociażby uchwały Rady Ministrów z 28 grudnia 2020 r. „Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020”, zwanej polską strategią rozwoju AI.

Przyspieszenie

Od czasu powołania GRAI dużo się zmieniło. Nie jesteśmy już na etapie spokojnej dyskusji nad tym, jak poprawić warunki dla rozwoju projektów AI w Polsce i jak dostosować do tego polskie prawo. Pojawiły się generatywne systemy AI i zmienił się istotnie projekt unijnego rozporządzenia w sprawie sztucznej inteligencji. Jesteśmy w przededniu wejścia w życie nowych unijnych przepisów, systemy AI trafiły do powszechnego użytku, wielu przedsiębiorców eksperymentuje z wykorzystywaniem ich do swoich potrzeb. Nie jest to czas na działania oparte wyłącznie na wolontariacie. Może on być wykorzystywany do działań edukacyjnych lub wspierających, jednak nie można nim zastępować tego, co jest obowiązkiem państwa – zapewnienia właściwych warunków rozwoju projektów AI w różnych branżach i sektorach w taki sposób, aby polscy przedsiębiorcy mogli konkurować na rynku międzynarodowym.

Ramy prawne wytwarzania i korzystania z systemów AI mamy już ustalone poprzez AI Act, którego treść jest także znana – a rozporządzenie to pozostawia państwom członkowskim wiele konkretnej przestrzeni do wypełnienia. Nie trzeba czekać, aż nadejdą terminy realizacji obowiązków wynikających z rozporządzenia – warto działać już teraz.

Dobrym przykładem jest Hiszpania, która jest pierwszym krajem UE z urzędem nadzoru nad systemami sztucznej inteligencji. Polska może zrobić to samo, tworząc taki urząd lub wskazując jeden z już istniejących, aby być wcześniej niż inni gotowa do wdrażania nowych przepisów.

Polska może być także aktywnym uczestnikiem procesu budowy unijnych ram zarządzania systemami sztucznej inteligencji. Rozporządzenie zacznie stopniowo obowiązywać w latach 2025–2027 i w tym czasie będą trwały prace w celu ulepszenia AI Act – przez wytyczne, kodeksy postępowania oraz akty wykonawcze. Polski głos przy tworzeniu tych dokumentów powinien być wyraźniej słyszalny. Ale to nie wszystko, co Polska może zrobić.

Wdrażanie rozporządzenia w sprawie sztucznej inteligencji będzie nadzorowane przez nowe organy unijne – Europejski Urząd ds. AI, Europejską Radę Sztucznej Inteligencji, forum doradcze dla Rady i Komisji, panel naukowy niezależnych ekspertów. Dobrze byłoby, aby Polska była w nich należycie reprezentowana. Polscy eksperci powinni się również włączyć w prace związane z tworzeniem zharmonizowanych norm dla różnych przypadków używania systemów AI, gdyż takie normy będą odgrywały istotną rolę w zapewnieniu zgodności z przepisami rozporządzenia.

AI Act nie jest idealnym aktem prawnym – zawiera wiele niejasności, które będą powodowały komplikacje przy stosowaniu tych przepisów. Dla wielu projektów AI ryzyko regulacyjne jest często trudne do udźwignięcia. Szybka organizacja piaskownic regulacyjnych (nie trzeba z nimi czekać na wejście w życie AI Act!) pozwoli na realny, bo dotyczący konkretnych kwestii, dialog z polskimi organami nadzoru i z jednej strony będzie stanowić dla tych organów świetną okazję do nabrania doświadczenia i wypracowania dobrych praktyk, zaś z drugiej umożliwi start-upom AI na dopracowanie swoich systemów i ich testowanie także w realnych warunkach. Uzyskane w ten sposób doświadczenie polskich organów nadzoru pozwoli też na bardziej realny wpływ na to, jaki będzie ostateczny kształt wytycznych unijnych dotyczących AI Act – w tym tak ważnych jak te dotyczące rozumienia definicji systemu AI czy klasyfikacji systemów AI jako systemów wysokiego ryzyka.

Po stronie państwa

Warto również skoordynować i sfinansować działania świata naukowego – zarówno w zakresie technologii, jak i prawa. Zamiast aktywności pojedynczych osób lub jednostek dobrze byłoby widzieć działania w postaci chociażby podzielonego między różne jednostki planu kompleksowych analiz dotyczących wszystkich istotnych aspektów funkcjonowania systemów AI i ich regulacji prawnych.

Chciałbym doczekać chwili, gdy unijne i krajowe organy nadzoru będą się powoływać na polskich autorów, a ich publikacje będą źródłem inspiracji przy kształtowaniu się praktyki stosowania AI Act w całej Unii Europejskiej. To wszystko nie uda się raczej bez wsparcia polskiego państwa. Może zatem, zamiast kolejnych spotkań GRAI, spróbować tym razem czegoś innego? ©℗