Wdrażane w dobrej wierze mechanizmy, które miały ucywilizować dyskusje w komentarzach pod tekstami w internecie, w świetle ostatnich orzeczeń Sądu Najwyższego zaczną działać na niekorzyść usługodawców.
/>
W ostatnim czasie w prasie pojawiło się wiele komentarzy związanych z wygraną adwokata Romana Giertycha przed Sądem Najwyższym w sprawie przeciwko jednemu ze znaczących portali w procesie o nienawistne komentarze (sygn. akt I CSK 128/13). Zdaniem komentatorów sąd uznał, że za zamieszczenie komentarzy osób trzecich odpowiada właściciel portalu, na którym zostały opublikowane. Konkluzja tych wypowiedzi jest taka, że jest to początek rewolucji w polskim internecie. Wyrok ten ma m.in. wskazywać, że „wydawca odpowiada za wpisy – bo zgodnie z ustawą o świadczeniu usług drogą elektroniczną powinien usuwać nienawistne komentarze”. Nie odpowiadałby za nie, tylko gdyby wykazał, że nie wiedział o ich istnieniu. Co więcej, „wydawcy portali muszą natychmiast usuwać ze stron hejterskie wpisy, bo jeśli później nie udowodnią, że o nich nie wiedzieli – będą przegrywać sprawy z osobami, które zostały obrażone”.
Kierunek, jaki wyznacza linia orzecznicza Sądu Najwyższego w tym zakresie w roku 2016 i na początku roku 2017, oraz orzeczenie ETPC w sprawie DELFI (skarga nr 64569/09) spowoduje on istotne szkody w zakresie funkcjonowania internetowego ekosystemu. Przekaz medialny bowiem wskazuje, że wydawca odpowiada za wpisy, co nie jest prawdą, gdyż odpowiada jedynie w chwili ziszczenia się ku temu przesłanek (choć faktycznie ocennych przesłanek).
Zasady odpowiedzialności podmiotów świadczących usługi drogą elektroniczną, w szczególności usługi elektroniczne umożliwiające przyjęcie za pośrednictwem formularza treści komentarza użytkownika następnie automatycznie publikowanego pod komentowanym artykułem, określają przede wszystkim przepisy art. 12–15 ustawy z 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną.
Ustawa o świadczeniu usług drogą elektroniczną (dalej: uśude) ma swoje źródło w prawie unijnym, tj. dyrektywie 2000/31/WE. Uchwalenie dyrektywy poprzedzone było dyskusją dotyczącą modelu funkcjonowania usługodawców i potencjalnych przeszkód dla rozwoju ich działalności z uwagi na ryzyko odpowiedzialności za „pośrednie” naruszenie praw osób trzecich w wyniku udostępnienia użytkownikom własnej infrastruktury.
Kluczowe znaczenie materialnoprawne ma przepis dotyczący tzw. hostingu zawarty w art.14 uśude.
Przepisy dotyczące odpowiedzialności hostingodawcy obowiązują już ponad dekadę. Do 2013 r. w orzecznictwie dominowało stosunkowo mało restrykcyjne podejście do interpretacji art. 14 ust. 1 uśude. Można zaryzykować tezę, w myśl której utrata ochrony wynikającej z wyrażonej tam normy z powodu istnienia wiedzy usługodawcy o bezprawnym charakterze danych była uzależniona od uzyskania pozytywnej wiedzy o bezprawnym charakterze przechowywanych danych.
Nowe światło na interpretację systemową przepisów na gruncie prawa europejskiego rzuciła sprawa DELFI (dostawca usług w Estonii, umożliwiający czytelnikom publikację komentarzy). Skrypty wdrożone przez DELFI w automatyczny sposób filtrują komentarze od kątem wulgarnych słów.
Co ważne, rozpatrując sprawę DELFI, Europejski Trybunał Praw Człowieka (ETPC) nie stosował przepisów dyrektywy 2000/31/WE, lecz postanowienia Europejskiej Konwencji Praw Człowieka dotyczące ochrony wolności wypowiedzi (zwłaszcza art. 10 konwencji) i badał, czy działanie sądów nie doprowadziło do nieuzasadnionego ograniczenia tej wolności. Sprawa została rozpatrzona przez Wielką Izbę Europejskiego Trybunału Praw Człowieka, która w istocie podtrzymała wcześniejsze orzeczenie, przyjmując brak naruszenia art. 10 konwencji. Warto zwrócić uwagę na następujące argumenty przywołane przez Wielką Izbę:
- skala prowadzonej działalności ma znaczenie,
- korelacja między liczbą komentarzy a przychodami portalu ma znaczenie (w wyroku zaznaczono, że waga komentarzy w działalności DELFI przemawia przeciwko uznaniu DELFI wyłącznie za pośrednika),
- sprawnie funkcjonująca procedura usuwania bezprawnych treści w oparciu o zgłoszenia (notice and takedown) nie zawsze jest wystarczającym narzędziem, zwłaszcza jeśli komentarze zawierają mowę nienawiści lub groźby.
Orzeczenie w sprawie DELFI, choć oparte na zapisach Europejskiej Konwencji Prawach Człowieka, skutkowało zmianą podejścia do wykładni art. 12–15 uśude, co można zaobserwować w wyroku Sądu Najwyższego z 10 stycznia 2014 r. (sygn. akt I CSK 128/13). Sąd Najwyższy wyraził poglądy istotne z punktu widzenia udostępnienia możliwości komentowania artykułów, m.in. taki, że wolumen komentarzy i konieczność poniesienia znacznych nakładów na ich weryfikację nie są okolicznościami działającymi na korzyść usługodawcy, a usługodawca, który stosuje automatyczne narzędzia filtrujące, wie o bezprawnych wpisach, zawierających wyrażenia, które powinny być wychwytywane przez takie filtry.
Podobne wrażenie można odnieść, analizując wyrok Sądu Najwyższego z 30 września 2016 r. (sygn. akt I CSK 598/15.). W uzasadnieniu wyroku SN ponownie wprost powołał się na orzeczenie DELFI, kwestionując wyrażony przez sąd niższej instancji pogląd o braku możliwości jego zastosowania w polskich warunkach. Przede wszystkim według Sądu Najwyższego:
- to usługodawca ma udowodnić, że nie wiedział o treści kwestionowanych komentarzy,
- równoznaczna z wiedzą o bezprawnych danych jest w istocie możliwość powzięcia informacji o nich,
- wiedza nabyta samodzielnie przez pracownika usługodawcy jest równoznaczna z wiedzą samego usługodawcy,
- wyrok Wielkiej Izby ETPC w sprawie DELFI tylko potwierdził, że bardziej rygorystyczne obowiązki nałożone na usługodawców nie prowadzą do naruszenia wolności słowa, przynajmniej w teorii.
Bardzo istotne jest podejście prezentowane przez Sąd Najwyższy w sprawie wynikającego z art. 15 uśude braku obowiązku monitorowania danych. Zakres zastosowania tego przepisu został zawężony. Sąd Najwyższy przyjął bowiem, że wiedza administratora na temat wpisów użytkowników wyklucza skuteczność powoływania się na ten przepis.
Zmiana kierunku orzecznictwa widoczna w orzecznictwie SN, choć dyskusyjna w świetle obowiązujących przepisów prawa polskiego i unijnego, jest faktem, ale nie prowadzi do automatycznego założenia odpowiedzialności usługodawcy za treść pochodzącą od osoby trzeciej, a publikowaną na stronach usługodawcy. W polskim systemie prawnym brak zasady precedensu. Jest jednak wysoce prawdopodobne, że sądy powszechne będą stosowały się do wykładni przyjętej w tym wyroku.
Jakie są konsekwencje takiej wykładni przepisów? Przede wszystkim im bardziej usługodawca dba o jakość dyskusji (np. wdraża automatyczne filtry wulgaryzmów), tym większe jest prawdopodobieństwo, że poniesie odpowiedzialność za treść komentarzy, które naruszają prawo. Wzrasta bowiem możliwość powzięcia informacji o nich, choć de facto żaden z pracowników nie musi o nich wiedzieć. W konsekwencji wdrażane przez usługodawców w dobrej wierze mechanizmy techniczno-organizacyjne, które miały ucywilizować dyskusje w komentarzach, zaczną działać na niekorzyść usługodawców.
Po drugie, upraszczające poglądy w przestrzeni medialnej – porównujące komentarz pod artykułem w sieci do listu do redakcji opisanego w ustawie o prawie prasowym – mogą spowodować zamknięcie możliwości komentowania z uwagi na ryzyko odpowiedzialności. W przypadku dużych podmiotów może zaś oznaczać rezygnację z dotychczasowych narzędzi pomocniczych, jak filtry wulgaryzmów i określonych fraz.
Po trzecie, cierpi na tym użytkownik: albo nie będzie mógł zamieścić komentarza i uczestniczyć w dyskusji, albo będzie zmuszony czytać wulgaryzmy i inne treści niekoniecznie związane z komentowaną treścią.
To bardzo szkodliwe dla branży, gdy działanie ze starannością w celu zmniejszenia zjawiska, jakim są mowa nienawiści i hejt, wiąże się ze zwiększeniem ryzyka. Przyjęte w orzecznictwie założenia powodują, że nie warto się starać i działać we własnym zakresie (personel i systemy usługodawcy), bo tym samym można się narazić na odpowiedzialność za jeden czy kilka z kilkudziesięciu tysięcy komentarzy użytkowników dziennie. Jest to niepokojące, bo w każdym cywilizowanym systemie prawnym działania naprawcze, staranność, chęć zapobieżenia szkodzie, jej rozmiarowi i czynny żal działają na korzyść, a nie na niekorzyść usługodawcy.
Warto w tym miejscu przytoczyć wyniki badania „Internetowa kultura obrażania” przeprowadzonego przez IAB Polska. Według niego odsetek wypowiedzi przekraczających granice kultury jest wciąż marginalny, jedynie kilka procent, zawiera wulgaryzmy czy obraża innych.
Pytanie, jakie należy sobie zadać, to czy dla marginalnego, choć – nie da się ukryć – bardzo widocznego i spektakularnego zjawiska warto ryzykować masowym zamykaniem tego typu usług w sieci?
Można powiedzieć: nie chcesz brać odpowiedzialności, wyłącz komentarze. Czy o taki efekt nam chodzi? Przecież mamy zwalczać mowę nienawiści, a nie prawo do wypowiedzi i wyrażania opinii. Pokłosiem orzeczenia w sprawie DELFI jest wprowadzenie usługi komentarzy z premoderacją (czyli kontrolą wypowiedzi przed ich opublikowaniem) na stronach WWW czasopism elektronicznych. Od premoderacji tylko jeden krok do cenzury.
W poszukiwaniu równowagi, która w takim ekosystemie jest niezmiernie ważna, warto mieć na uwadze, że usługodawca ma w pierwszej kolejności skupić się na poprawnym i ciągłym świadczeniu usługi, zamiast przeznaczać znaczące siły i środki na utrudnienie i uniemożliwienie zamieszczenia komentarza. Brakiem równowagi jest z jednej strony niereagowanie usługodawcy na stan niezgodności z prawem, z drugiej zaś przypisanie mu akcesoryjnej odpowiedzialności za kilkadziesiąt tysięcy komentarzy i niedoskonałości oprogramowania.
Nie jest winą usługodawcy, że ktoś taki bezprawny komentarz zamieszcza. To nie jest jego czyn. Powodem jego odpowiedzialności jest to, że nie reaguje. W obecnej sytuacji łatwiej będzie niestety pociągnąć do odpowiedzialności usługodawcę (bo wszyscy wiemy, że takiej liczby komentarzy nie da się kontrolować, a oprogramowanie filtrujące jest ułomne) niż tego, kto faktycznie dopuścił się czynu niezgodnego z prawem lub naruszającego czyjeś dobra osobiste.
Możliwość wejścia w interakcję z użytkownikiem, czyli dwukierunkowość komunikacji, to przewaga internetu nad telewizją, radiem czy prasą papierową. Obecnie obserwowany kierunek orzecznictwa bez zmian prawa spowoduje zamykanie tego typu usług. Portale i wortale mogą funkcjonować bez komentarzy. Pytanie, czy my potrafimy?
W ramach toczącej się w tle dyskusji o zmianach przepisów w tym art. 14 uśude należy zawnioskować de lege ferenda o doprecyzowanie zasady odpowiedzialności dostawców usług, w tym doprecyzowanie ścieżki notice and take down.
W obecnej sytuacji łatwiej będzie pociągnąć do odpowiedzialności usługodawcę (bo wszyscy wiemy, że takiej liczby komentarzy nie da się kontrolować, a oprogramowanie filtrujące jest ułomne) niż tego, kto faktycznie dopuścił się czynu niezgodnego z prawem lub naruszającego czyjeś dobra osobiste.