Instytucje ochrony danych w całej UE pracują nad wspólnym frontem w sprawie potencjalnych naruszeń dokonanych przez sztuczną inteligencję.

Nie minął tydzień, odkąd Garante, włoski urząd ochrony danych osobowych, wszczął postępowanie wyjaśniające w sprawie ChatGPT, a już pomysł, by zablokować jego działanie podchwyciły Francja, Niemcy i Irlandia. O konsekwencjach decyzji dyskutują też inne organy odpowiedzialne za ochronę danych osobowych. – Mamy nadzieję, że problemy związane z rozwojem sztucznej inteligencji będą rozwiązywane w sposób spójny w ramach UE – przekonuje Adam Sanocki, rzecznik polskiego Urzędu Ochrony Danych Osobowych.

Jak dodaje, UODO jest w kontakcie zarówno z Włochami, jak i Europejską Radą Ochrony Danych, czyli instytucją, która dba o to, by unijne przepisy chroniące dane obywateli były jednolicie stosowane we wszystkich krajach UE. Jak przyznaje Sanocki, na razie czekają na wyjaśnienia dotyczące okoliczności, które wywołały decyzję Garante. – Na obecnym etapie jest za wcześnie rozstrzygać, czy urząd będzie podejmował działania – zastrzega i dodaje, że jak dotąd nikt nie poskarżył się UODO na problemy z przetwarzaniem danych osobowych w ramach korzystania z ChatGPT. Nie było też żadnej kontroli w związku z jego funkcjonowaniem.

Przypomnijmy: włoski organ ochrony danych zarzuca OpenAI, że choć jego usługa jest przeznaczona dla osób powyżej 13. roku życia, nie weryfikuje wieku użytkowników. Zwraca też uwagę na ogromne ilości danych, które ChatGPT zebrał do szkolenia swojego programu. Domaga się wyjaśnień, jak OpenAI zamierza chronić dane Włochów.

Nie tylko w Europie ChatGPT wywołuje kontrowersje. Także kanadyjski organ ochrony danych wszczął w jej sprawie dochodzenie. „Technologie wykorzystujące AI i ich efekty na prywatność są obecnie priorytetem dla mojego urzędu” – zaznaczył Philippe Dufresne. – Musimy nie tylko nadążać, ale także wyprzedzać szybko zmieniające się technologie – zaznaczył. W podobnym zresztą duchu wypowiedział się Guido Scorza, członek rady włoskiej Garante.

Po tym, jak organ zaczął zbierać cięgi za utrudnianie dostępu do ChataGPT, opublikował w serwisie Startupitalia.eu oświadczenie. Przyznał w nim, że postępowanie wobec OpenAI może mieć wymiar znacznie głębszy, zahaczający o politykę względem firm technologicznych w ogóle. „Moim zdaniem sprawa, którą się zajmujemy, nie dotyczy środka podjętego przeciwko OpenAI ani decyzji tego ostatniego o uczynieniu usługi niedostępną z Włoch. Prawdziwe pytanie, moim zdaniem, jest inne: czy naprawdę wierzymy, że innowacje technologiczne, które mają przynieść nadzwyczajne korzyści i możliwości dla społeczności, powinny (…) być domyślnie upoważnione do działania nawet z naruszeniem obowiązujących przepisów, ze względu na korzyści, jakie mogą przynieść czy przyniosą?” – napisał. Scorza ocenił, że konieczne jest zwrócenie uwagi na kwestię odpowiedzialności spółek za technologię.

„Na nic się zda wskazywanie, że ChatGPT przedstawia się jedynie jako automatyczny kompilator tekstu, ponieważ nie ma wątpliwości, że miliony użytkowników na całym świecie używają go, od pierwszego dnia, w poszukiwaniu odpowiedzi, w które w większości przypadków wierzą” – przekonuje. Tymczasem maszyna dostarcza mylących odpowiedzi na przykład na temat osób, których dane znalazły się w niej w procesie trenowania modelu.

Za to zresztą australijski polityk, Brian Hood, zamierza pozwać OpenAI o… zniesławienie. Jak donosi Reuters, burmistrz Hepburn Shire ostrzegł, że złoży pozew, jeśli spółka nie poprawi fałszywych informacji, które pojawiają się w ChatGPT po wpisaniu jego nazwiska. Maszyna miała klarować użytkownikom, że jest on kryminalistą skazanym za łapówkarstwo. To jednak nieprawda – nie został on nigdy nawet oskarżony o takie przestępstwa. Co więcej, był on sygnalistą, który pomógł w ujawnieniu skandalu w Australijskim Banku Rezerw (RBA). Gdyby burmistrz wygrał, otworzyłoby to drogę dla innych osób, które czują się pokrzywdzone działaniem robota.

OpenAI jest w centrum zainteresowania także w USA. Do Federalnej Komisji Handlu wpłynęła skarga, która wzywa OpenAI do wstrzymania prac nad modelami językowymi takimi jak GPT-4. Organizacja Center for AI and Digital Policy (CAIDP) oskarża firmę o naruszenie sekcji 5 ustawy FTC i wytycznych dla produktów AI. CAIDP nazywa GPT-4 „stronniczym, zwodniczym i stanowiącym zagrożenie dla prywatności i bezpieczeństwa publicznego” i żąda, aby OpenAI pozwolił na niezależną ocenę produktów GPT przed ich wydaniem w przyszłości.

Na razie OpenAI nie chce ujawnić na przykład, jakich danych użył do trenowa nia swojego modelu. Zasłania się tajemnicą biznesową. ©℗