Dylemat, ile wolności warto poświęcić w imię bezpieczeństwa, nigdy nie miał prostego rozwiązania. Najnowszym jego przykładem są plany Apple’a. Firma chce wprowadzić w swoich urządzeniach mechanizmy ograniczające rozpowszechnianie dziecięcej pornografii i zwiększające bezpieczeństwo najmłodszych. Problem jednak w tym, że przy okazji stworzy system masowej inwigilacji.

Systemy operacyjne iPhone’ów i innych urządzeń tego producenta zostaną wyposażone w funkcje do wykrywania zdjęć ze scenami pedofilii. Tylko że w tym celu algorytm będzie skanował wszystkie fotografie użytkowników. A to budzi obawy, że raz wdrożony system będzie można później wykorzystać do wyłapywania innych treści – np. antyrządowych. Zapewnienia koncernu o dobrych intencjach to za mało, by ten niepokój ugasić.

Technologiczni giganci powinni robić, co w ich mocy, by powstrzymać rozpowszechnianie dziecięcej pornografii – o poparcie dla tego stwierdzenia łatwo. Trudniej o konsensus w kwestii doboru środków.
Apple ogłosił niedawno, że wprowadzi w swoich urządzeniach mechanizmy zwiększające bezpieczeństwo dzieci. Nowe systemy operacyjne zostaną mianowicie wyposażone w funkcje do wyszukiwania zdjęć ze scenami seksualnego wykorzystywania najmłodszych.
W pierwszej kolejności big tech chce to wdrożyć w Stanach Zjednoczonych. Funkcja rozpoznawania, blokowania i zgłaszania władzom treści pornograficznych jeszcze w tym roku ma się pojawić w aktualizacji systemów operacyjnych iOS 15, iPadOS 15, watchOS8 i macOS Monterey. Potem przyjdzie pora na inne państwa, w tym europejskie.
Jak skanowanie zdjęć w poszukiwaniu niedozwolonych materiałów będzie się odbywać? System Apple’a będzie przeglądał fotografie użytkowników iPhone’ów i innych urządzeń tej firmy wysyłane do chmury (iCloud Photos). Jeszcze zanim tam trafią, zostaną porównane ze zbiorami zdjęć z referencyjnych baz organizacji praw dziecka. W razie wykrycia podobieństwa do obrazu z takiego zbioru, podejrzane zdjęcie zostanie sprawdzone przez człowieka. Jeśli ten stwierdzi, że inkryminowany materiał istotnie jest pornografią dziecięcą, powiadomienie o tym trafi do Narodowego Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC), a konto użytkownika (Apple ID) zostanie zablokowane. Od tej decyzji big techa będzie się można odwołać.
„Chcemy pomóc chronić dzieci przed drapieżcami”, którzy wykorzystują narzędzia komunikacji internetowej, „a także ograniczać rozpowszechnianie materiałów dotyczących wykorzystywania seksualnego dzieci” – deklaruje Apple. Zapewnia, że nie będzie gromadzić żadnych informacji na temat skanowanych zdjęć.
Brawo, nareszcie! – chwalą giganta obrońcy praw dziecka. Na wprowadzenie przez Apple’a narzędzi do walki z rozpowszechnianiem materiałów pedofilskich czekali od dawna.
Nadchodzi Wielki Brat! – ostrzegają z kolei obrońcy prywatności, u których tak głęboka ingerencja w treści przechodzące przez smartfony budzi ogromny niepokój.
Obie strony mają swoje racje. Konieczności ochrony praw najmłodszych i najsłabszych nie trzeba nikomu na tych łamach tłumaczyć. Potrzeba wolności i prywatności też jest oczywista. Problemem jest znalezienie złotego środka w sytuacji, gdy zapewnienie bezpieczeństwa wymaga rezygnacji z części swobód.
W przypadku systemu skanującego Apple’a sprowadza się to do zagadnienia kontrolowania kontrolującego. Dopóki śledzeni będą mogli mitygować działania Wielkiego Brata i powstrzymywać go przed przekraczaniem granic, nie będzie on taki wielki. Sęk w tym, gdzie wyznaczymy granice i przede wszystkim jakie – o ile w ogóle – mamy narzędzia do wywierania skutecznego wpływu na technologicznego giganta.
A pod tym względem wygląda to na razie tak, że big tech dzierży wszystkie atuty, natomiast społeczeństwu pozostaje wiara w jego dobrą wolę. Otrzymaliśmy bowiem tylko deklaracje o zamiarach koncernu i opis planowanej procedury, które nie rozwiewają podstawowych wątpliwości.
Apple ogłosił, że będzie szukał tylko pornografii – ale kto nam zagwarantuje, że tak pozostanie? Gdy Nowy Wspaniały System zostanie już wprowadzony, bez trudu da się go podrasować do szukania np. treści antyrządowych. „Jeśli dziś mogą skanować w poszukiwaniu dziecięcej pornografii, jutro mogą skanować w poszukiwaniu czegokolwiek” – ostrzega na Twitterze Edward Snowden, według którego „bez względu na dobre intencje”, Apple „wprowadza masową inwigilację”.
Zresztą nawet bez skręcania w stronę polityki takie skanowanie smartfonów jest ryzykowną ingerencją w prywatność. Co będzie, jeśli algorytm jako pedofila oflaguje rodzica, który sfotografował swoje dziecko w kąpieli, bo na zdjęciu z bazy referencyjnej będzie np. podobnie urządzona łazienka? Kontrolujący to pracownik Apple’a po obejrzeniu setek pornograficznych fotografii też się może pomylić.
Firma obiecuje wprawdzie, że ryzyko nieprawidłowego rozpoznania zdjęć będzie „ekstremalnie niskie”. Dotychczas jednak żaden z ekspertów tego nie potwierdził. Są natomiast opinie przeciwne. Waszyngtońskie Centrum Demokracji i Technologii uważa np., że technologie porównywania obrazów są „notorycznie podatne na błędy”. Jak cytuje Associated Press, organizacja wezwała koncern do rezygnacji z wprowadzania funkcji skanujących, gdyż ich wprowadzenie położy kres prywatności komunikacji, dotychczas gwarantowanej na urządzeniach Apple’a.
Plany firmy z Cupertino budzą tym większy niepokój, że nie ograniczają się do analizowania zdjęć użytkowników iPhone’ów. Apple chce również wprowadzić mechanizm skanujący wiadomości przesyłane w szyfrowanym komunikatorze iMessage. W tym przypadku także uzasadnia to ochroną najmłodszych: chodzi o wyposażenie rodziców w narzędzia umożliwiające im wykrycie np. próby nagabywania ich pociech przez przestępców seksualnych. Wątpliwości są podobne jak w odniesieniu do skanowania zdjęć: czy dobro dzieci to uzasadnia? Dlaczego mamy ufać big techowi, że nie posunie się dalej? Dać Wielkiemu Bratu palec, to weźmie całą rękę.
Dylemat, ile wolności warto poświęcić w imię bezpieczeństwa, nigdy nie miał prostego rozwiązania. Co nie znaczy, że nie powinniśmy szukać takiego, które jak najlepiej wyważy korzyści i ograniczenia niezbędne do ich osiągnięcia. Dziś znalezienie kompromisu między tymi dwiema wartościami jest szczególnie pilne w odniesieniu do szczepień przeciwko COVID-19 – i właśnie w sferze cyfrowej.
Jeśli gigant technologiczny chce coś zrobić dla zwiększenia bezpieczeństwa najmłodszych, to bardzo dobrze – pod warunkiem że każde naruszenie naszej prywatności będzie uzasadnione i ściśle kontrolowane.