Po latach wolnej amerykanki regulatorzy przymuszają platformy do ochrony najmłodszych w internecie.

Wprowadzenie aktualizacji, które pomogą chronić przed krzywdą nastolatki używające Facebooka i Instagrama, ogłosił w poniedziałek koncern Meta, właściciel tych platform. Użytkownicy poniżej 16. roku życia będą mieli teraz domyślnie włączone ostrzejsze ustawienia prywatności. Ograniczają one m.in. krąg osób, które mogą zobaczyć listę znajomych nastolatka, obserwowane przez niego osoby, strony i listy, a także komentować posty. Poczucie bezpieczeństwa najmłodszych użytkowników mają też zwiększyć narzędzia do informowania platformy o nieprawidłowościach lub zachowaniach innych internautów sprawiających, że dzieci i młodzież czują się niekomfortowo podczas korzystania z serwisu społecznościowego. O takiej możliwości będą przypominać powiadomienia wysyłane w aplikacji.
Meta testuje ponadto nowe sposoby większej ochrony przed rozmowami z dorosłymi spoza kręgu znajomych nastolatka – m.in. jest to opcja usunięcia ikony wiadomości na kontach nastolatków na Instagramie przeglądanych przez podejrzanych dorosłych. Za „podejrzane” serwis uznaje np. konto osoby dorosłej zgłoszone przez innego młodego użytkownika. Właściciel Facebooka i Instagrama informuje ponadto, że we współpracy z National Center for Missing and Exploited Children (NCMEC) zamierza zbudować globalną platformę dla nastolatków, którzy obawiają się, że zrobione przez nich prywatne zdjęcia zostały udostępnione w sieci bez ich zgody.
To nie pierwsze pomysły Meta w tej dziedzinie. W ubiegłym roku spółka ograniczyła już dorosłym możliwość wysyłania nastolatkom wiadomości.
– Zmiany wprowadzone przez Meta to krok w dobrą stronę – ocenia Szymon Wójcik, specjalista ds. bezpieczeństwa dzieci online i koordynator programu Safer Internet w Fundacji Dajemy Dzieciom Siłę. – Nie rozwiązują one jednak podstawowego problemu, jakim jest weryfikacja wieku użytkowników platform. Programy ochrony działają, jeśli ktoś na Facebooku ma ustawiony faktyczny wiek. Jeśli jednak przedstawi się jako 24-latek, żadne z tych rozwiązań nie będzie się do niego stosować.
Zdaniem Wójcika ważne jest też, jak do sprawy obecności dzieci w mediach społecznościowych podchodzą rodzice. Tu postawy są skrajne – jedni starają się pilnować, by najmłodsi przestrzegali regulaminów platform, inni pozwalają im udawać starszych. – To później trudny temat w grupach rówieśniczych. Dzieci, których rodzice chcą przestrzegać zasad, słyszą np. „mamo, ale ja nie wiem, co się dzieje, bo nie jestem na portalu, przez który oni rozmawiają” – mówi.
Choć dla wielkich platform kwestia ochrony najmłodszych użytkowników dziś jest jednym z poważniejszych tematów, nie zawsze tak było. Przykładowo: o tym, co Meta robi z danymi dzieci, poinformowała sygnalistka Frances Haugen. Ujawniła ona, że firma ustaliła m.in. negatywny wpływ autoprezentacji na Instagramie na zdrowie psychiczne części dziewcząt. Nacisk opinii publicznej sprawił, że spółka musiała wprowadzić zmiany. Wielkie korporacje zmodyfikowały podejście do prywatności w sieci, dostosowując się też do obowiązujących w Europie przepisów Ogólnego rozporządzenia o ochronie danych osobowych (RODO). Amerykańskie spółki już w większości odrobiły te lekcje, teraz gra toczy się o to, by dostosowały się też firmy chińskie. Irlandzka Komisja ds. Ochrony Danych (organ UE dla wielu firm technologicznych, które ze względu na korzystne rozwiązania podatkowe mają siedziby w Irlandii) postanowiła wszcząć dwa dochodzenia w sprawie TikToka. Nie jest jasne m.in., jaka jest dolna granica wieku dla korzystających z platformy.
Zagrożenia związane z mediami społecznościowymi to jednak tylko wierzchołek góry lodowej problemów, jakie czekają dzieci w internecie. Ogromnym zagrożeniem jest też to, jak łatwo mogą one sięgnąć po nieodpowiednie treści, np. pornografię. Według raportu NASK „Nastolatki wobec pornografii cyfrowej” co ósmy nieletni internauta kilka razy dziennie ma do czynienia w sieci z treściami o charakterze seksualnym.
W Polsce sprawę ma rozwiązać przygotowany przez kancelarię premiera projekt ustawy o ochronie małoletnich przed dostępem do treści nieodpowiednich w sieci. Autorzy regulacji każą dostawcom internetu wprowadzić mechanizmy blokowania dostępu do treści pornograficznych. Jaki, tego nie definiują. Stwierdzają tylko, że ma być bezpłatny, skuteczny i prosty. I w dodatku zapewniony przez operatorów telekomunikacyjnych.
Projekt budzi opór w branży cyfrowej. Skoro w świecie realnym przed tym, co nielegalne, szkodliwe lub niepożądane, chronimy dzieci przez rozmowę, uświadamianie i edukowanie, to nie ma powodu, aby nie stosować tych metod wychowawczych wobec zagrożeń płynących z sieci. Nikt nie ma wątpliwości, że jest to rola i odpowiedzialność rodziców i systemu edukacji – podkreśla branża. ©℗