Akty o usługach cyfrowych (Digital Services Act - DSA) i o rynkach cyfrowych (Digital Markets Act - DMA) zmienią relacje między Facebookiem, Google’em, Amazonem i innymi serwisami internetowymi - a ich użytkownikami, a także między cyfrowymi gigantami a ich mniejszymi konkurentami.
Pierwsze rozporządzenie, zwane też kodeksem cyfrowym, ma zapewnić internautom w Unii większą kontrolę nad materiałami dostępnymi online. Usprawni m.in. walkę z nielegalnymi treściami, bo serwisy społecznościowe będą miały obowiązek usuwać je niezwłocznie po zgłoszeniu. To samo będzie dotyczyło nielegalnych produktów sprzedawanych w sieci.
Internauci zyskają większą kontrolę nad sposobem wykorzystywania ich danych osobowych, a reklama skierowana do wybranych grup (targetowana) będzie zabroniona w odniesieniu do nieletnich. Zakazany zostanie też dobór odbiorców takich przekazów na podstawie danych wrażliwych (jak religia, orientacja seksualna itp.).
Reklama
Jak mówi sprawozdawczyni DSA, europosłanka Christel Schaldemose z Komitetu Rynku Wewnętrznego i Ochrony Konsumentów (IMCO), ta regulacja „położy kres cyfrowemu Dzikiemu Zachodowi”. - Zwiększymy ochronę konsumentów, zapewnimy użytkownikom lepsze prawa i uregulujemy rdzeń modelu biznesowego platform. To, co jest nielegalne offline, będzie również nielegalne online - mówiła.
Wśród treści, które mają okiełznać unijne regulacje, jest mowa o nienawiści i podżeganiu do wojny. Po rosyjskiej inwazji na Ukrainę stanowią one jeszcze większe zagrożenie - dlatego do przygotowywanych od 2020 r. regulacji dodano mechanizm kryzysowy, uruchamiany np. w przypadku zagrożenia bezpieczeństwa publicznego. Obejmie on analizę wpływu działalności bardzo dużych - tj. mających w UE ponad 45 mln aktywnych użytkowników miesięcznie - platform i wyszukiwarek na aktualny kryzys oraz zalecenie tym serwisom podjęcia specjalnych działań przeciwko dezinformacji.

Reklama
Kary za łamanie kodeksu cyfrowego mogą sięgnąć 6 proc. globalnych obrotów firm internetowych, a powtarzające się naruszenia - spowodować zakaz prowadzenia działalności w UE.
Komplementarnym rozporządzeniem jest akt o rynkach cyfrowych mający wyrównać warunki działania dla wszystkich przedsiębiorstw tej branży. Dlatego na największych graczy - platformy społecznościowe, komunikatory, wyszukiwarki - zostaną nałożone dodatkowe obowiązki. Chodzi tu o strażników dostępu, tj. spółki, które w ciągu ostatnich trzech lat osiągały w Unii co najmniej 7,5 mld euro rocznego obrotu lub ich kapitalizacja wynosi minimum 75 mld euro. Inne warunki to co najmniej 45 mln użytkowników miesięcznie i 10 tys. klientów biznesowych w Unii.
Zapisy DMA mają powstrzymać takich gigantów przed nadużywaniem ich pozycji rynkowej. Dlatego nie będzie im wolno m.in. wymagać od twórców aplikacji korzystania z pewnych usług. Regulacja zakaże też m.in. preinstalowania pewnych aplikacji i wykorzystywania danych osobowych zgromadzonych w trakcie świadczenia jednej usługi do oferowania innej. Ponadto obowiązkiem gigantów będzie zapewnienie sprzedawcom dostępu do swoich danych na temat wyników działań marketingowych lub reklamowych na platformie.
Największe komunikatory internetowe - WhatsApp, Facebook Messenger, iMessage - na życzenie mniejszych platform będą musiały z nimi współpracować w przekazywaniu wiadomości użytkowników. Gdyby strażnik dostępu naruszył przepisy DMA, czeka go grzywna do 10 proc. łącznych globalnych obrotów, za drugim razem - do 20 proc., a za systematyczne naruszenia - czasowy zakaz nabywania innych firm.
Jeżeli w dzisiejszym głosowaniu europosłowie zaaprobują regulacje cyfrowe, pozostanie jeszcze tylko formalne przyjęcie tych przepisów przez Radę UE. ©℗
OPINIA

Gwarant konkurencyjności

dr Aleksandra Musielak departament rynku cyfrowego Konfederacji Lewiatan / Materiały prasowe
Eliza Turkiewicz departament rynku cyfrowego Konfederacji Lewiatan / Materiały prasowe
W kontekście aktu o usługach cyfrowych firmy doceniają przede wszystkim uporządkowanie zasad zarządzania nielegalnymi treściami online dzięki rozpisaniu tzw. procedury notice and action. Przedsiębiorcy zyskali jasną, kompleksową ścieżkę postępowania z treściami szkodliwymi oraz przejrzyste zasady odpowiedzialności za kontent.
W ramach walki ze sprzedażą produktów niebezpiecznych i podróbek online z większym zaangażowaniem w identyfikację i weryfikację swoich klientów biznesowych muszą liczyć się platformy sprzedażowe - przy czym te największe już wdrożyły praktyki zgodne z wymogami aktu o usługach cyfrowych.
Warto zwrócić uwagę na przepisy zakazujące stosowania przez platformy tzw. dark patterns - czyli rozwiązań, które celowo wprowadzają w błąd użytkownika lub wymuszają dokonania konkretnych decyzji - czy zakaz stosowania reklam ukierunkowanych na osoby niepełnoletnie w oparciu o profilowanie. Wyzwaniem dla firm będzie dostosowanie się do nowych zakazów, w szczególności zmiany interfejsów platform internetowych. Akt o rynkach cyfrowych ustanawia zasady wyznaczania przez Komisję Europejską tzw. gatekeeperów (czyli „strażników internetu”), tj. dużych przedsiębiorstw świadczących usługi takie jak m.in. przetwarzanie w chmurze czy wyszukiwarka internetowa. Firmy, które uzyskają taki status, mają sześć miesięcy na dostosowanie się do nowych obowiązków, w tym wielu ograniczeń w prowadzeniu działalności gospodarczej. Wśród najważniejszych jest m.in. powstrzymanie się od plasowania własnych produktów lub usług na korzystniejszych zasadach i zakaz łączenia danych osobowych z różnych źródeł bez skutecznej zgody użytkownika. Pod większym nadzorem KE pozostanie kwestia przejęć i fuzji przedsiębiorstw dokonywana przez strażników dostępu. ©℗
rozmowa

Ostateczny efekt jest słodko-gorzki

Dorota Głowacka prawniczka z Fundacji Panoptykon / Materiały prasowe
Co zmieni w internecie unijny pakiet dwóch aktów cyfrowych?
Mam nadzieję, że bardzo wiele, zwłaszcza na największych platformach o dominującej dziś pozycji na rynku, które mają największy wpływ na naszą rzeczywistość i na które regulacja ta nakłada sporo nowych obowiązków. Mam przy tym świadomość, że wszystko rozstrzygnie się dopiero na etapie wdrożenia, więc na razie zachowuję raczej bardzo ostrożny optymizm.
Najlepiej spojrzeć na to w kilku sferach. Biorąc pod uwagę, że Panoptykon działa na rzecz wolności i ochrony praw człowieka, kluczowe są dla nas trzy obszary: moderacja treści, mechanizmy rekomendowania treści oraz targetowanie reklam. Zmiany, które użytkownicy mają szansę najbardziej odczuć, dotyczą moderacji. Użytkownicy mediów społecznościowych dostaną narzędzia, które zapewnią im lepszy wgląd w działanie platform i pozwolą im skuteczniej niż dziś kwestionować decyzje moderacyjne platform. Od dawna walczyliśmy np. o stworzenie mechanizmów odwoływania się od decyzji o usunięciu treści - teraz taka możliwość będzie. Zostaną wprowadzone zasady sprawiedliwej procedury w tym zakresie. Internauci, którym przydarzy się np. blokada konta, dowiedzą się, jakie są przyczyny i będą mogli się odwołać, przedstawiając swoje argumenty: najpierw w ramach platformy, a w razie potrzeby na kolejnym etapie przed zewnętrznym organem arbitrażowym, ewentualnie też sądem. DSA wprowadza ponadto zakaz rozpatrywania takich odwołań wyłącznie przez algorytmy, automatycznie - w takiej procedurze w ramach danej platformy będzie musiał wziąć udział człowiek.
Z drugiej strony dodatkowe uprawnienia uzyskają również użytkownicy skarżący się na przykład na nienawistne treści. Ich zgłoszenia nie będą już mogły zostać tak łatwo zignorowane: platformy będą musiały je rozpatrzyć, poinformować zgłaszającego, a od decyzji w takich sprawach też będzie się można odwołać. Dzięki temu zarówno ofiary tzw. prywatnej cenzury platform, jak i ofiary mowy nienawiści i innych bezprawnych treści zyskają narzędzia pozwalające im lepiej zrozumieć decyzje platform i skuteczniej dochodzić swoich racji. Moderacja treści stanie się więc bardziej przejrzysta i nie będzie już uzależniona wyłącznie od arbitralnych decyzji big techów.
W dyskusji o tych przepisach pobrzmiewa jednak nuta rozczarowania, że są zbyt łagodne.
To niestety prawda. Zaczęłam od moderacji, czyli obszaru, gdzie moim zdaniem możemy się spodziewać realnych zmian lepsze. W dwóch pozostałych obszarach - algorytmów targetujących reklamy i dobierających treści - sprawy mają się już nieco gorzej i ich rzeczywisty, pozytywny wpływ nie jest tak oczywisty. Ostateczny efekt tej regulacji istotnie jest więc słodko-gorzki. Prawo, które otrzymujemy, jest efektem kompromisu - niewątpliwie same platformy też wywarły wpływ na jego kształt, angażując potężne siły do lobbowania na rzecz korzystnych dla siebie rozwiązań.
Jak ten kompromis wygląda w kwestii reklam?
Zakazano wykorzystywania danych dzieci do targetowania reklam (kierowania przekazów reklamowych do grupy odbiorców wybranych ze względu na pewne cechy - red.). Nie będzie też wolno wykorzystywać do tego danych wrażliwych. Problem w tym, że w praktyce może być to trudno wyegzekwować - i niekoniecznie doprowadzi to do wykorzenienia najbardziej inwazyjnych praktyk, umożliwiających platformom wykorzystywaniem naszych słabości i manipulację w celach reklamowych.
Platformy mają mechanizmy wnioskowania wrażliwych cech na podstawie naszej aktywności w sieci, często bez pełnej świadomości użytkowników, przy czym niekoniecznie oznaczają je wtedy jako wrażliwe czy przypisują je do konkretnych profili. Z teoretycznie niewrażliwych danych - jak lokalizacja, kliknięcia, historia wyszukiwania - dochodzą do informacji dotyczących np. naszego stanu zdrowia czy orientacji seksualnej. Czyli de facto wykorzystują nasze słabości, żeby kierować do nas reklamy dobrane pod tym kątem - ale formalnie nie odbywa się to bezpośrednio przez użycie danych wrażliwych w rozumieniu RODO. Dlatego proponowaliśmy zakaz wykorzystywania takich wywnioskowanych informacji o użytkownikach. Reklama personalizowana jako taka nadal byłaby możliwa, ale jedynie na bazie danych, którymi użytkownik dzieliłby się z platformą w pełni świadomie.
To się nie udało?
Niestety nie. Dlatego mamy świadomość, że przepisy DSA nie idą dość daleko, jeśli chodzi o ograniczenia dotyczące personalizacji reklam i jest ryzyko obchodzenia ich przez platformy. Traktujemy jednak DSA i pojawienie się w nim wspomnianych restrykcji jako wciąż ważny, pierwszy krok w kierunku ucywilizowania tego obszaru.
Podobnie mieszane odczucia mam w odniesieniu do działania systemów rekomendacyjnych, tj. mechanizmów dobierania treści, które są podsuwane konkretnym użytkownikom mediów społecznościowych (np. w ramach tzw. newsfeedu). To prawdopodobnie one ze wszystkich trzech omawianych obszarów mają największy potencjał wpływania na ludzkie wybory i kształtowania obrazu świata. Taka logika działania algorytmów to bezpośredni efekt modelu biznesowego platform - ich systemy rekomendacyjne są zoptymalizowane na generowanie naszego zaangażowania i maksymalizację czasu, który spędzamy przed ekranem. Wiarygodne, jakościowe informacje często nie budzą aż takich emocji, więc cele ten łatwiej osiągnąć, promując toksyczne treści.
Zwracała na to uwagę m.in. sygnalistka, była menedżerka Facebooka Francis Haugen. Co się zmieni pod tym względem?
Zostanie wprowadzona większa transparentność działania mechanizmów rekomendacyjnych. Największe platformy będą też musiały zaproponować użytkownikom przynajmniej jeden system doboru treści, który nie będzie oparty na profilowaniu. ©℗
Rozmawiała Elżbieta Rutkowska