Skanowanie wiadomości w social mediach czy rozpoznawanie biometryczne twarzy, np. na dworcach – to rozwiązania, które w UE są forsowane w imię bezpieczeństwa dzieci.

– Doszliśmy do momentu, w którym czas podjąć świadomą decyzję, co jest dla nas najważniejsze: ochrona dzieci przed niegodziwym traktowaniem i torturami (ETPC uznał, że brak efektywnej ochrony najmłodszych przed wykorzystywaniem seksualnym jest formą tortury), czy prywatność użytkowników, która nie będzie naruszana w dużym stopniu – mówi Katarzyna Katana, prawniczka z Fundacji Dajemy Dzieciom Siłę (FDDS).

W UE właśnie trwają prace nad rozporządzeniem w sprawie wykrywania treści dotyczących wykorzystywania seksualnego dzieci. Ma ono walczyć z produkcją i rozpowszechnianiem materiałów pokazującym takie praktyki oraz położyć tamę tzw. groomingowi – uwodzeniu z wykorzystaniem sieci internetowej.

Przykładem takiego zachowania jest ujawniona niedawno afera na polskim YouTubie. Przez lata jeden z najpopularniejszych internetowych twórców miał korespondować z nastoletnimi fankami, m.in. namawiając je do wysyłania intymnych zdjęć. Z niektórymi, również nieletnimi, miał spotykać się na żywo na organizowanych przez siebie alkoholowych imprezach.

Unijne rozporządzenie pozwoli na skanowanie wiadomości i plików przepuszczanych przez platformy internetowe, by stwierdzić, czy zawierają one materiały obrazujące wykorzystywanie dzieci. Miałoby to odbywać się bez udziału człowieka – za pomocą specjalnie wytrenowanych algorytmów. Zdaniem FDDS to dobry kompromis między prywatnością a walką o prawa najmłodszych.

Do KE trafiło jednak wiele przeciwstawnych opinii. Wytykano jej m.in. wprowadzanie rozwiązania o inwigilacyjnym charakterze. Organizacja ECPAT International przeprowadziła badania opinii publicznej, które pokazały jednak, że Europejczycy generalnie zgadzają się na ograniczenia prywatności w zamian za wprowadzenie rozwiązań dotyczących ochrony dzieci. Jak wynika z raportu, który otrzymaliśmy w Polsce jako pierwsi, trzech na czterech respondentów twierdzi, że byliby skłonni narazić pewien stopień swojej prywatności online, jeśli pomoże to chronić dzieci przed potencjalnym wykorzystywaniem seksualnym i wykorzystywaniem online. Najmniejszy odsetek zgodnych odpowiedzi jest na Węgrzech (56 proc.), a najwyższy – w Portugalii (82 proc.). Polska nie odbiega od unijnej średniej.

Czy rzeczywiście Europejczycy zgadzają się na ograniczenia prywatności? Doktor Łukasz Olejnik, niezależny badacz i konsultant prywatności, autor książki „Filozofia cyberbezpieczeństwa”, jest sceptyczny wobec stawiania takiej tezy. – Z tego badania nie można wyciągnąć takiego wniosku. Nie przedstawiono w nim szczegółów tego „ograniczenia prywatności” i co to by miało oznaczać. To są ogólniki w rodzaju „coś oddać” za „ochronę dzieci”. No a któż sprzeciwiałby się „ochronie dzieci”? Wiadomo, że dzieci trzeba chronić. Stąd taki, a nie inny wynik. Gdyby ludziom przedstawiono konkretne rozwiązania i to, jak one miałyby działać, nie wiadomo, jak wpłynęłoby to na wynik – zwraca uwagę.

Kiedy pytamy, czy możliwe są rozwiązania, które pogodzą kwestię prywatności i bezpieczeństwa dzieci, ekspert zaprzecza. – Obecnie brak takich pomysłów technicznych. Wszystko opiera się na propozycjach, które mogłyby osłabić prywatność i cyberbezpieczeństwo, a być może nawet prowadzić do niesłusznej inwigilacji i podejrzeń. Problem jest też inny. My wciąż nie wiemy, jak budować w pełni bezpieczne systemy. Zbliżamy się do tej wiedzy, ale kompletnego standardu wciąż nie ma. Wbudowywanie tylnych drzwi to po prostu wyłom i wprowadzanie złożoności, która wpłynie na istniejące systemy – zaznacza Olejnik. – Oczywiście można się zastanowić nad stworzeniem osobnych komunikatorów wyłącznie dla dzieci, np. z niższymi standardami zabezpieczeń lub szyfrowania. Tylko czy rodzice będą wiedzieli, jak wymusić stosowanie tych i tylko tych rozwiązań? Jest dziś wielu rodziców, którzy świadomie pozwalają zbyt młodym dzieciom łamać regulaminy i korzystać ze społecznościówek i komunikatorów. Problemem są więc w dużym stopniu ludzie. Wymuszać mogłyby takie działania technologie, np. smartfony, weryfikując wiek i odpowiednio konfigurując dostępność oprogramowania. Tylko nikt nie bierze tego pod uwagę – uważa ekspert. A jego intuicję potwierdzać może choćby stopień wykorzystania aplikacji kontroli rodzicielskiej na smartfonach.

Próby rozstrzygnięcia dylematu między rozwiązaniami inwazyjnymi dla prywatności a bezpieczeństwem dzieci znalazły się także wśród poprawek do europejskiego rozporządzenia w sprawie sztucznej inteligencji, czyli AI Act. W czerwcu dokument był głosowany w Parlamencie Europejskim. Europejska Partia Ludowa (EPL), w skład której wchodzą PO i PSL, zgłosiła poprawki, które otwierały drzwi dla zastosowania biometrycznego rozpoznawania twarzy w miejscach publicznych w czasie rzeczywistym. To potężna technologia, wykorzystująca ogromne bazy danych zawierających wrażliwe informacje o obywatelach i na bieżąco analizująca zachowanie, emocje czy wygląd. Wykorzystuje przy tym obraz z kamer monitoringu, które mogą być umieszczone na dworcach, placach czy budynkach.

Na mocy jednej z poprawek EPL identyfikacja miała być stosowana za zgodą sądu w przypadkach, kiedy sprawa dotyczy m.in. poszukiwania dzieci. Poprawki spotkały się z protestami organizacji zajmujących się prawami człowieka. Negatywnie opiniował je np. polski Panoptykon. Ostatecznie poprawki przepadły, a PE przegłosował AI Act bez nich. Obecnie akt jest negocjowany między Radą, Parlamentem a Komisją Europejską. Dopóki jednak ten proces się nie zakończy, nie można być pewnym, że kontrowersyjne zapisy nie wrócą. ©℗

ikona lupy />
Jak powinniśmy chronić dzieci w internecie / Dziennik Gazeta Prawna - wydanie cyfrowe