Michał Kosiński: Powinniśmy domagać się, żeby to instytucje publiczne zajęły się decydowaniem o tym, co można w sieci publikować, a czego nie.
Michał Kosiński: Powinniśmy domagać się, żeby to instytucje publiczne zajęły się decydowaniem o tym, co można w sieci publikować, a czego nie.
Co mówią o nas nasze cyfrowe ślady i aktywność na portalach społecznościowych?
O wiele więcej niż nam się wydaje. Ludzie są już chyba świadomi tego, że np. kiedy kupują w internecie pieluchy, to wiadomo, że mają dzieci. Albo że jeśli odwiedzają stronę danego polityka i przelewają pieniądze na jego kampanię, to będzie wiadomo, jakie są ich poglądy polityczne. Ale coś, z czego ludzie nie zdają sobie jeszcze często w pełni sprawy, to to, że z tych powierzchownych śladów cyfrowych można dowiedzieć się o nich wiele więcej. Możesz nigdy nie wypowiadać się na tematy polityczne w internecie, nie odwiedzać stron polityków, ale z twoich śladów cyfrowych, książek, które kupujesz w sieci, z historii zakupów spożywczych, filmów, które oglądasz, muzyki, jakiej słuchasz, można dowiedzieć się, jakie masz poglądy. Można też określić twoją osobowość, poziom inteligencji, wyznanie religijne, orientację seksualną, historię rodzinną lub stwierdzić, czy jesteś w związku, czy też nie, albo czy twoi rodzice się rozwiedli. Ślady cyfrowe to tylko wierzchołek góry lodowej. Jeśli połączy się je z algorytmami, to można się o tobie dowiedzieć więcej, niż ty sama o sobie wiesz.
Pańskie badania ujawniły metody, jakimi posługuje się Facebook, żeby gromadzić dane swoich użytkowników.
My nie jesteśmy klientami Facebooka. Nie płacimy za korzystanie z portalu, czyli to nie my jesteśmy klientem. Firmy marketingowe płacą Facebookowi za dostęp do naszych gałek ocznych i to one są klientem Facebooka. My jesteśmy towarem, który Facebook sprzedaje. Ludzie często o tym zapominają.
A żeby dobrze nas sprzedać, Facebook obserwuje nasze zachowanie w sieci. Patrzy na to, co lubimy, czego nie lubimy, o czym rozmawiamy w swoich prywatnych wiadomościach, a później wykorzystuje tę wiedzę, żeby dostarczyć nam i rozrywkę, i reklamy. To, co zrobiła Cambridge Analytica, to jest mniejsza wersja tego, co na co dzień robią Facebook, Google i inni technologiczni giganci, których biznesem jest obserwowanie naszego zachowania i dobieranie wyników wyszukiwania, kontentu i reklam.
/>
W 2012 r. Facebook opatentował technologię, później wykorzystaną przez Cambridge Analytica, która pozwala przewidzieć osobowość i inne cechy psychologiczne na podstawie facebookowych lajków. W tamtym czasie dziennikarze, naukowcy i urzędnicy nie chcieli wierzyć, że takie rzeczy są możliwe. Wszystkim wydawało się, że nie ma się czego obawiać, że takie cechy można przewidzieć tylko za pomocą testów psychologicznych. W naszych badaniach w 2013 r. pokazaliśmy, że jest to możliwe i trzeba poważnie traktować zagrożenia dla prywatności wynikające z patentu Facebooka i jemu podobnych. Nasze badania stały się całkiem popularne, wiele gazet rozpisywało się, jak to teraz można przewidywać osobowość z facebookowych lajków, ale nikt nie brał na poważnie naszych ostrzeżeń: że poza zaletami takiej technologii ma też ona swoje poważne wady.
Czy mechanizmy perswazji, z którymi na co dzień stykamy się w internecie, są w jakimś stopniu odpowiedzialne za głębokie podziały społeczne? Może nie zdajemy sobie sprawy z tego, że coraz bardziej zamykamy się w naszych bańkach informacyjnych, a przy tym radykalizujemy, czytając tylko to, co wygląda dla nas bardzo miło.
W pewnym stopniu tak. Kiedy jednak obserwuje się takie procesy, to trzeba patrzeć na całościowy wynik. W przypadku portali społecznościowych na każdą zradykalizowaną osobę przypada wielu, którzy z radykalnej studni dali się wyciągnąć. Zamiast patrzeć na Twittera, popatrzmy na statystki: świat jest daleki od perfekcji, ale z każdym rokiem mamy więcej wolności, więcej równouprawnienia, mniej rasizmu. Co więcej, partie lewicowe i prawicowe są dziś o wiele bardziej zbliżone światopoglądowo niż niegdyś. Nasza frustracja często wynika z tego, że nasze standardy rosną szybciej niż rzeczywistość. A czasem robimy dwa kroki w przód, a jeden wstecz.
Broni pan Facebooka?
Pewnie. Zajmuję się głównie badaniem i opisywaniem zagrożeń wynikających z tej i innych platform, ale nie zapominam o tym, że zdecydowana większość społecznych konsekwencji ich istnienia jest pozytywna. Jesteśmy dużo lepiej połączeni ze sobą niż kiedyś, możemy łatwiej komunikować się poza kontrolą podsłuchujących nas rządów, możemy czytać artykuły z całego świata. Jest dużo więcej różnorodności! Jesteśmy tylko o jedno kliknięcie od każdego kąta internetu. Naturalnie większość ludzi nadal siedzi w swojej bańce, ale wielu z nas czasem z tej bańki wygląda na szerszy świat. To niesamowita zaleta nowych technologii i nie powinniśmy o tym zapominać, rozmawiając o zagrożeniach. Żebyśmy przypadkiem nie wylali dziecka z kąpielą i nie zakazali sobie technologii, dzięki którym świat jest dzisiaj dużo lepszy niż 10, 15 czy 20 lat temu.
Lepiej mądrze regulować?
Zamiast domagać się, żeby Facebook sam się regulował i cenzurował nasze wiadomości czy posty, lepiej uświadomić sobie, że korporacje, które opierają się na zysku i są poza demokratyczną kontrolą, nie powinny mieć prawa i publicznego przyzwolenia na to, aby cenzurować nam internet. Powinniśmy domagać się, żeby to instytucje publiczne zajęły się decydowaniem o tym, co można w sieci publikować, a czego nie.
Nie obawia się pan czasami, że pana badania posłużą do złych celów?
Zajmuję się testowaniem istniejących technologii oraz wyszukiwaniem i opisywaniem ich zalet i zagrożeń. Wydaje mi się, że społeczeństwo, ustawodawcy i firmy technologiczne powinni wiedzieć, jakie potencjalnie pozytywne i negatywne skutki niosą te technologie.
Nie boi się pan jednak, że kiedy publikuje pan badania np. o tym, że na podstawie zdjęcia profilowego na Facebooku można określić orientację seksualną użytkownika, to jakiś rząd uzna, że to świetny pomysł i postanowi to wykorzystać?
Oczywiście, że się tego obawiam! Wydaje mi się jednak, iż jest to ryzyko, które warto podejmować. Pozwalamy rządom i społeczeństwom przygotować się na takie zagrożenia. Ponadto firmy i służby wywiadowcze są i tak kilka kroków przed nami - dla nich to nie są nowe informacje.
Co nie znaczy, że nie należy się starać minimalizować ryzyka, że ktoś naszą pracę źle wykorzysta. Przed publikacją artykułów informuję o wykrytych przez siebie zagrożeniach odpowiednie instytucje i firmy, których zagrożenia te dotyczą. I daje to pewne efekty. Na przykład w trakcie pracy nad artykułem o przewidywalności cech psychologicznych z facebookowych lajków powiadomiłem o moich wynikach Facebooka. W efekcie zmienili oni ustawienia prywatności, znacznie ograniczając późniejsze szkody spowodowane przez firmy takie jak Cambridge Analytica. Kiedy publikowałem badania pokazujące, że technologia rozpoznawania twarzy pozwala określić poglądy polityczne czy orientację seksualną na podstawie zdjęć profilowych, dostęp do takich zdjęć był całkowicie publiczny na Facebooku i wielu innych platformach. Po publikacji artykułu większość liczących się firm zmieniła zasady prywatności dotyczące zdjęć profilowych, znacznie zwiększając bezpieczeństwo miliardów użytkowników.
Nagłaśnianie zagrożeń, jakie niesie ze sobą technologia, ma swoje wady i zalety. Często stajemy przed trudnymi wyborami.
Dalszy ciąg materiału pod wideo
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Reklama
Reklama
Reklama