Aby sztuczna inteligencja służyła społeczeństwu i gospodarce, potrzeba regulacji i nadzoru.
Po poprawkach komisji Parlamentu Europejskiego projekt AI Act obejmuje przepisy, które w większym stopniu dotyczą praw obywatelskich. Między innymi poszerzono katalog praktyk zakazanych o systemy biometryczne czy związane z predykcją kryminalną i przyznano więcej uprawnień osobom, wobec których systemy AI są używane (skarga administracyjna, droga sądowa). Organizacje takie jak Panoptykon i sieć EDRI chciałyby, aby poprawić akt – m.in. zwiększając przejrzystość w przypadku systemów wysokiego ryzyka, przyznać NGO prawo reprezentowania osób, których prawa zostały naruszone, wzmocnić gwarancje dla osób z niepełnosprawnością czy poszerzyć prawo do wyjaśnienia decyzji AI. Co dalej? 14 czerwca odbędzie się głosowanie plenarne PE, a potem regulacja wejdzie w fazę trialogu.
Zarówno pod względem prawnym, jak i technologicznym jesteśmy na początku drogi. Natomiast przewidujemy, że AI będzie miała zastosowanie w najróżniejszych dziedzinach gospodarki: w medycynie, w transporcie, w sterowaniu ruchem drogowym i wszelkimi urządzeniami miejskimi. Mogą być też zastosowania policyjne, wywiadowcze itp. – ten obszar budził wiele obaw podczas prac w Parlamencie Europejskim.
Nie zgodziłbym się z tym, że jesteśmy na początku drogi. Sztuczna inteligencja już jest obecna w naszym życiu i trzeba ją tak uregulować prawnie, aby służyła ludziom – a nie odwrotnie.
Obszary do zastosowania AI pokrywają się pewnie z tymi, gdzie obecnie są używane komputery i odbywa się praca na dużych zbiorach danych: usługi, medycyna, obronność, energetyka, przemysł, logistyka, telekomunikacja, media… prawie wszystko. Pytanie też, czy istnieje ścisła granica pomiędzy algorytmami a sztuczną inteligencją – czy też to, co w tej chwili nazywamy sztuczną inteligencją, nie jest po prostu kolejną generacją bardziej zaawansowanych algorytmów.
Obecnie poziom bezpieczeństwa AI nie jest wystarczający. Ważne jest, aby prawo, które stworzymy, broniło się potem w sądzie. AI Act przewiduje m.in., że w sądach powstaną struktury rozstrzygające w takich sprawach. Powiedzmy, że w sieci pojawi się zdjęcie polityka prowadzącego w kajdankach, wykonane z użyciem AI – ktoś będzie za to odpowiadał. W Polsce będziemy się też musieli zastanowić, w jakim stopniu implementujemy AI Act. Czy poprzestaniemy na półśrodkach? Są takie zdania wśród polskich polityków, że Unia Europejska idzie za szeroko. Nie ulega jednak wątpliwości, że im szybciej wprowadzimy modele bezpieczeństwa dotyczące sztucznej inteligencji, tym lepiej dla obywatela.
Wszystkie rozwiązania technologiczne mogą być używane z pożytkiem dla ludzkości, pod warunkiem że są poddane właściwemu nadzorowi. Za każde zastosowanie AI jakiś zespół ludzi powinien brać odpowiedzialność. Nie może być mowy o zdejmowaniu odpowiedzialności i kosztów popełnionych błędów z twórców oprogramowania AI lub tych, którzy to oprogramowanie wdrażają do użytku. Tylko pełna odpowiedzialność majątkowa zagwarantuje skuteczność mechanizmu rynkowego, polegającego na tym, że wprowadzając nowe rozwiązania, przewiduje się koszty stwarzanego ryzyka i je kontroluje.
W zaproponowanej przez komisje PE wersji aktu na tę odpowiedzialność zwracamy uwagę. Ponadto oprogramowanie, które ma być dopuszczone do użytku publicznego, powinno przychodzić przez tzw. piaskownicę regulacyjną, czyli zamknięte środowisko, w którym testujemy, jak działa.
W regulacji, która będzie głosowana 14 czerwca, ochrona obywateli jest, wydaje mi się, całkiem dobrze opisana. Nie mówię, że jest doskonała, ponieważ mamy do czynienia z technologią, która stale się rozwija, więc z pewnością ten dokument w przyszłości będzie podlegał nowelizacji. Zadbaliśmy też o to, aby zastosowania AI wytworzone poza granicami Unii Europejskiej podlegały przepisom aktu. Fundamentem jest analiza ryzyka dla każdego rozwiązania wykorzystującego sztuczną inteligencję. Jego ocena będzie decydowała o poziomie nakładanych rygorów prawnych.
Nie zgadzam się z tym. Przeciwnie, właśnie trzeba unormować kwestię sztucznej inteligencji w sferze bezpieczeństwa. Inaczej doszłoby do ogromnych nadużyć i mogłoby się to źle skończyć.
A ja jestem za wyłączeniem tego obszaru. Objęcie go regulacją spowodowałoby, że również inni aktorzy sceny światowej, niekoniecznie nam przyjaźni, mieliby weń wgląd. Stąd kompromis w tej sprawie.
Zgadzam się z posłem Hetmanem. Jeżeli wyłączymy tę dziedzinę spod regulacji, to jak będziemy się chronić przed tymi, którzy mogą próbować zrobić nam krzywdę?
Wszystko zależy od konstrukcji przepisów. Jest obszar tajnego działania służb, gdzie będą one sięgać po najbardziej zaawansowane technologicznie narzędzia, aby osiągać swoje cele – i to nie będzie transparentne dla opinii publicznej. Podobnie w obszarze wojskowy. Natomiast jednocześnie mamy szeroki obszar cywilnego bezpieczeństwa, gdzie wykorzystanie technologii powinno być już transparentne i poddane regulacjom prawnym.
Powołanie europejskiego urzędu ds. AI to dobry pomysł, dlatego że daje człowiekowi szansę dochodzenia swoich praw. Ponadto w polskim prawodawstwie powinny powstać odpowiednie instytucje regulujące nie tylko sztuczną inteligencję, lecz także algorytmy. Takie dedykowane organy można stworzyć na wzór Urzędu Ochrony Konkurencji i Konsumentów. Jeżeli społeczeństwo będzie miało instytucję, do której może się zwrócić, to łatwiej będzie mu zrozumieć cały ten olbrzymi proces, który wokół sztucznej inteligencji się wytwarza. Już dziś algorytmy decydują o naszym życiu – np. przy antyplagiatowym sprawdzaniu pracy magisterskich czy ocenie wniosków o granty. A to się jeszcze nasili. Dlatego potrzebne są ramy prawne i instytucje nadzorujące wykorzystanie AI.
Dzisiaj najlepiej przygotowany do takich zadań jest UOKiK. Ale ja też jestem za tym, żeby powstał specjalny urząd ds. sztucznej inteligencji. To jest narzędzie pokazujące z jednej strony bardzo duże perspektywy wykorzystania go w jak najlepszych celach, ale z drugiej strony również w jak najgorszych. Dlatego choć zwykle głosujemy w Parlamencie Europejskim przeciwko tworzeniu nowych urzędów, to w tym wypadku jest wyjątek.
My w Konfederacji jesteśmy dosyć sceptyczni, czy jakikolwiek nasz problem rozwiąże nowy urząd. Sądzę, że być może skuteczne byłoby takie rozwiązanie prawne, które gwarantowałoby obywatelowi prawo zażądania obsługi przez człowieka.
Bliskie jest mi stanowisko pana posła Bosaka, że tworzenie nowych urzędów, szczególnie u nas w Polsce, nie jest zasadne. Ale istotne jest też pytanie, czy mamy tyle kompetencji i wiedzy, aby sobie ze sztuczną inteligencją poradzić. Myślę, że musimy położyć duży nacisk na edukację w tej dziedzinie.
Życzliwość dla tej technologii w ogóle, bo uważamy, że jej rozwój ułatwi nam życie w wielu dziedzinach – choć może być też niebezpieczny. Ale noża też możemy użyć do krojenia chleba czy warzyw – albo poderżnąć komuś gardło. Mamy teraz w Polsce do czynienia z dużymi informatycznymi inwestycjami, witamy je z otwartymi ramionami i przypuszczam, że takie będzie stanowisko polskiego rządu w Radzie UE.
Tak, dlatego że podzielamy wiele obaw o wykorzystanie tej technologii sprzecznie z wolnościami obywatelskimi.
Oczywiście, że powinniśmy się zastanawiać nad krajową regulacją. To będzie pochodna tego aktu, element jego implementacji. Sztuczna inteligencja działa globalnie, ale tworzonym przez nią zagrożeniom musimy umieć zapobiec tutaj na miejscu.
To będzie konieczność, życie to na nas wymusi.
Już się staramy to robić. W sejmowej komisji polityki społecznej od kilku miesięcy leży projekt, uchwalony jednogłośnie przez komisję cyfryzacji. W ustawie o związkach zawodowych dodaliśmy przepis, że związki mogą zajrzeć w algorytm, który w ich firmie ocenia pracowników i na tej podstawie otrzymują zadania, pensje i nagrody.
W sektorze prywatnym, w którym ta technologia rozwija się w sposób niekontrolowany i może mieć wpływ na obywatela bez jego wiedzy, regulacja jest uzasadniona. Natomiast jeżeli chodzi o administrację, to ja takiego silnego uzasadnienia jeszcze nie widzę.
Na wszystko. Sztuczna inteligencja niesie równie wiele ryzyk, co szans. Dlatego musimy ją trzymać w ryzach, aby nie wymknęła się spod kontroli.
Mierzymy się z technologią, która na razie raczkuje. Nadajemy jej jakieś ramy, wiedząc, że w zależności od tego, w którym kierunku będzie się rozwijała, to trzeba będzie te ramy dopasować.
Czekam spokojnie na to, co Parlament Europejski i inne instytucje unijne wygenerują. Mimo że środowiska zrzeszone w Konfederacji bez entuzjazmu podchodzą do europejskich instytucji, to nie wykluczamy, że akurat w tym wypadku uda się ustanowić korzystną regulację.
W całej tej dyskusji najważniejszy jest człowiek. Rozwoju technologii nie zatrzymamy i nawet nie miałoby to sensu, natomiast chodzi o to, żeby ta technologia służyła ludziom. I to powinno być sednem wszystkich regulacji. ©℗