- Tezę o blokowaniu postępu przez regulacje odbieram jako wyrażenie przez koncerny zdumienia, że są państwa, które pozwalają sobie grać według własnych reguł - mówi Damian Flisak, radca prawny, ekspert prawa własności intelektualnej i prawa nowych technologii.
Damian Flisak: Chodzi o to, byśmy byli bezpieczniejsi w internecie w dobie szybkiego rozwoju sztucznej inteligencji. Rozporządzenie reguluje przede wszystkim tworzenie i funkcjonowanie systemów AI. Niektóre zastosowania sztucznej inteligencji będą zakazane, inne dopuszczone pod rygorystycznymi obostrzeniami. Akt zakazuje choćby wykorzystywania AI w sposób manipulacyjny albo prowadzący do wykorzystywania słabości użytkowników. Wyobraźmy sobie cukrzyka, który podczas surfowania po internecie ma spadek poziomu cukru we krwi. Na podstawie danych wcześniej udostępnionych poprzez jego urządzenia systemy AI mogłyby to wykrywać i natychmiast pokazywać na ekranie reklamę czekolady w cenie trzykrotnie wyższej niż zwykle. Dzięki regulacji czegoś takiego nie będzie można zrobić.
Rzeczywiście ten aspekt w czasie dyskusji zajął najwięcej czasu. W rozporządzeniu też zajmuje dużo miejsca. Chodzi o zdalną identyfikację biometryczną w czasie rzeczywistym w miejscach publicznych do ścigania przestępstw, czyli takie systemy AI, które pozwalają na bieżąco porównywać obraz z kamer monitoringu ze zdjęciami w bazach danych i na tej podstawie identyfikować przemieszczające się osoby. Takie zastosowanie zostało ograniczone do ścigania najpoważniejszych przestępstw i obwarowane surowymi zabezpieczeniami, żeby organy ścigania nie mogły nadużywać tej możliwości. Organizacje zajmujące się obroną praw człowieka postulowały całkowite zakazanie tych technik w Unii Europejskiej, ale moim zdaniem nie był to dobry krok. Jeśli AI daje nam szansę skracania czasu identyfikacji przestępcy, należy z niej skorzystać. Tyle że pod kontrolą.
To bardzo ważna część tej regulacji. Akt ustanawia równe zasady gry dla wszystkich, którzy uczestniczą biznesowo w sferze AI w UE. Jeśli koncerny nadal chciałyby udostępniać w Europie swoje systemy sztucznej inteligencji, a więc również narzędzia generatywnej sztucznej inteligencji, muszą zapewnić przestrzeganie unijnych reguł. Należy do nich zapewnienie, że są one bezpieczne z punktu widzenia danych osobowych, a algorytmy generujące teksty czy obrazy były trenowane z poszanowaniem prawa autorskiego.
Faktycznie OpenAI ma coraz większe problemy z postępowaniami na tle bezpiecznego przetwarzania danych osobowych w krajach unijnych, a także z pozwami twórców i wydawców prasowych w USA. Kiedy AI Act zacznie obowiązywać dostawców wielkich modeli językowych, będą oni musieli pokazywać dane, na których trenowali swoje zbiory, i zapewnić możliwość usunięcia danych z modelu. Na przygotowanie się do wypełnienia tych zobowiązań producenci będą mieli rok od wejścia AI Act w życie.
Jeśli wziąć pod uwagę tempo rozwoju AI, nie jest to krótki okres. W świecie cyfrowym filozofia wdrażania nowych produktów jest inna niż przed erą internetu. W celu zdobycia przewagi konkurencyjnej na rynek są wprowadzane niedoskonałe produkty, które dopiero później, pod naciskiem, się poprawia. Najlepszym przykładem jest ChatGPT, który wystartował w listopadzie 2022 r. Kilka miesięcy po starcie włoski urząd chroniący dane osobowe wezwał firmę do złożenia wyjaśnień, w jaki sposób troszczy się ona o dane osobowe. No i co? Nawet, jeśli ten dialog zakończy się kiedyś karą, choćby kilkumilionową lub większą, ciężar jej poniesienia jest niczym w porównaniu z zyskiem. Open AI utrwalił obecność swojego produktu na rynku. ChatGPT stał się w krótkim czasie symbolem narzędzi generatywnej AI. Największe firmy stosują w pewnym sensie metodę faktów dokonanych.
Jest wiele powodów, dla których w Europie nie powstał znaczący ekosystem cyfrowy, ale regulacje nie są jednym z nich. Przecież do tej pory AI Act nie obowiązywał, a i tak nie mamy europejskich jednorożców czempionów. Często bywa tak, że młode, obiecujące start-upy są w ten czy inny sposób przejmowane przez koncerny technologiczne. Ostatnim przykładem jest francuski Mistral. Teza o blokowaniu postępu w Europie w wyniku regulacji jest chętnie forsowana przez wielkie spółki technologiczne. Odbieram to jako wyrażenie przez nie zdumienia, że jest na świecie grupa państw, która pozwala sobie grać według własnych reguł. Proszę zwrócić uwagę: rok temu Sam Altman groził wyjściem OpenAI z Europy, a zaraz potem to dementował. Nie mógł zdecydować się na taki krok. Europa jest zbyt ważnym graczem biznesowym i politycznym, by można było z niej po prostu zrezygnować. Imponuje mi, że Komisja Europejska jasno stawia sprawę: u nas najważniejsi są ludzie, chcemy waszego biznesu, ale na naszych zasadach. I to jest powód, dla którego niektórych zastosowań AI nie będzie można w ogóle praktykować.
AI Act wprowadza cały katalog zakazów. Prócz zdalnej biometrii zakazane jest stosowanie AI dla rozpoznawania emocji w szkole i pracy w celu wyciągania określonych wniosków. To dobrze – przecież to, czy pracujemy z uśmiechem, nie powinno wyznaczać naszej oceny jako pracownika i być nadinterpretowane. Z jednej strony można się uśmiechać nieszczerze, z drugiej można być życzliwie poważnym. Z ważniejszych zakazów nie będzie może oddziaływać na nas podprogowo, czyli poza naszą świadomością. Znajdujemy się w momencie ekspansji technologii umożliwiających, bez wielkiej przesady, zajrzenie do naszych głów, poznanie naszych myśli. Wprawdzie te technologie mają przede wszystkim znaczenie medyczne i są niezwykle pomocne w przypadku chorób neurodegeneracyjnych, to łatwo można sobie wyobrazić ich nadużycie w rękach nieodpowiedzialnych osób.
Uznano, że obszar bezpieczeństwa jest nadrzędny nawet nad ryzykami wynikającymi z zastosowań AI. Mamy ciężkie czasy i musimy dysponować rozwiązaniami, które pozwolą nam się bronić przed potencjalnym agresorem. Pokazał to przykład Ukrainy, która stała się największym na świecie laboratorium opartej na AI broni, bo musi poszukiwać sposobów na zneutralizowanie przewagi agresora. ©℗