Magazyn DGP 17.01.20 / Dziennik Gazeta Prawna

Czy Facebook, Instagram, Twitter i Google wiedzą o nas więcej niż nasi najbliżsi?

Oczywiście! Nawet więcej, niż wiemy o sobie sami.

Ale przecież ludzie w internecie nie są szczerzy. Przechwalają się, kłamią, piszą pod wpływem emocji, błędnie diagnozują u siebie choroby.

Komputer patrzy na nas obiektywniej niż my sami. Zdarza się, że zapominamy o pewnych rzeczach, które zrobiliśmy czy powiedzieliśmy, jak o postanowieniach noworocznych. A komputer pamięta i analizuje.

Można się przed tym chronić?

Można, tylko pytanie: czy ma to sens? Jedynie bardzo uprzywilejowani ludzie mogą sobie pozwolić na to, aby robić przelewy wyłącznie w placówce banku albo pisać odręcznie listy i wysyłać je tradycyjną pocztą. Większości osób, które mają pracę i rodzinę, brakuje na to czasu. Dla nich korzystanie z technologii jest więc po prostu niezbędne. Bez sensu jest uciekanie przed nowymi technologiami i blokowanie przetwarzania naszych danych przez firmy. Tracimy z tego powodu wiele potencjalnych korzyści. Lepiej skupić się na tym jak upewnić się, że te wspaniałe technologie nie są używane przeciwko nam.

fot. Wojtek Górski Michał Kosiński profesor na Uniwersytecie Stanforda. Specjalista w dziedzinie psychometrii, sztucznej inteligencji i big data, bada ludzi na podstawie ich śladów cyfrowych / DGP

Z tego, że korporacje znają nasze tajemnice i wciskają nam reklamy?

Jakkolwiek nie chcemy się do tego przyznawać, to potrzebujemy i lubimy konsumować. A lepiej jest przecież konsumować produkty skrojone specjalnie dla nas. Ja na kwestię przetwarzania danych patrzę jednak znacznie szerzej. Jest szansa, że w skali globalnej przyniesie to wiele dobrego. Maszyny będą mogły diagnozować choroby dużo taniej, szybciej i skuteczniej, niż dziś robi to lekarz. Wystarczy spojrzeć na ostatnie badania przytaczane przez Reutersa, z których wynika, że algorytm Google’a wykrył o 9,4 proc. więcej przypadków nowotworów piersi niż amerykańscy specjaliści. Sztuczna inteligencja będzie naszym doradcą w kwestiach zdrowia, w tym także psychicznego, związków czy rozwoju kariery.

Ale chyba tylko przy założeniu, że firmy przetwarzające dane chcą czynić wyłącznie dobro. A tak raczej nie jest.

Ależ firmy technologiczne nie chcą nam koniecznie robić krzywdy! Nieetycznych podmiotów jest bardzo niewiele. Wydaje mi się, iż Mark Zuckerberg nie miał i nie ma złych zamiarów. Wręcz przeciwnie – od początku chciał tworzyć środowisko przyjazne dla użytkowników. I to mu się przez wiele lat udawało. Wielu z mądrzejszych ode mnie znajomych pracuje w Facebooku czy Google’u. I to są ludzie tacy sami, jak zdecydowana większość z nas - porządni, martwiący się o przyszłość ludzkości i nie budzący się rano z myślą, jak by tu komuś zaszkodzić.

Technologia jest już tak zaawansowana, że nie jesteśmy w stanie przewidzieć jej skutków?

Można tak powiedzieć. W przeszłości mieliśmy wielkie koncerny medialne, które monopolizowały dostęp do informacji wielu milionom ludzi. Ale nie były one tak wielkie, jak wielki jest Facebook. Poza tym telewizja, prasa czy radio mają nieporównywalnie mniejszy zasięg i możliwości niż internet. Facebook kontroluje to, co czytamy, podsuwając nam treści najbardziej angażujące i atrakcyjne. Przez to spędzamy na portalu coraz więcej czasu. Jeśli algorytm odnotuje, że pokazywanie użytkownikom wielkich, tłustych kotletów powoduje, iż w następnym dniu poświęcą więcej czasu Facebookowi, to uparcie będzie im wyświetlać hamburgery. Nie będzie myślał o tym, czy ci ludzie danego dnia zjedzą hamburgera, zapiją coca-colą i przez to następnego dnia będą spędzać więcej czasu przy komputerze, bo się będą czuć zbyt ociężali, by wyjść na siłownię. W sposób niezamierzony może to doprowadzić do wzrostu epidemii otyłości wśród internautów. Na tej samej zasadzie jeśli użytkownicy czytują skrajnie prawicowe lub lewicowe artykuły zawierające teorie spiskowe, będą takimi treściami zalewani. Być może ktoś się przez to zradykalizuje, odda głos w wyborach niezgodnie z sumieniem albo zrobi coś jeszcze głupszego.

I pan uważa, że algorytmy przynoszą nam same korzyści? Mamy wątpliwości.

Przerażają nas pojęcia typu „algorytm”, „sztuczna inteligencja”. A przecież badania krwi, EKG, RTG, skan mózgu itd. w dużej mierze są automatycznie analizowane przez komputer. Dopiero potem są weryfikowane i opisywane przez specjalistów. Dane medyczne pobierane od pacjentów są zapisywane i analizowane na poziomie populacji. Dzięki temu zarówno koncerny farmaceutyczne, uniwersytety medyczne, jak i firmy ubezpieczeniowe mogą tworzyć modele nie tylko poprawiające jakość diagnoz, a regulatorzy na ich podstawie szukać większych oszczędności. Ktoś może powiedzieć, że mieszkając w kraju rozwiniętym, da się żyć bez algorytmów. Bo przecież mamy dostęp do lekarza, nauczyciela, psychologa itd. Ale w wielu miejscach na świecie ludzie marzą o takim luksusie. Kiedyś jak Szwedzi wybudowali sobie wspaniałą fabrykę Volvo, to tylko obywatele kraju mieli z niej korzyść. Nie zyskiwał na niej Polak, Chińczyk czy Hindus. Dziś mamy firmy takie jak Google, z główną siedzibą w USA, która przynosi korzyści obywatelom prawie całego świata i – w większości przypadków – za darmo, bo za wiele z ich usług użytkownik nie musi płacić.

Dzięki danym Polaków lepiej żyje się Hindusom i Chińczykom?

Lepiej żyje się wszędzie, gdzie następuje wymiana informacji. I dlatego mówię, że dzielenie się danymi jest dobre. Podam przykład. Na odpowiednio uregulowanym rynku ubezpieczeniowym – czyli takim, gdzie każdy ubezpieczony płaci taką samą stawkę - w naszym interesie powinno być, aby ubezpieczyciel wiedział o nas jak najwięcej. Żeby znał każdy nasz gen, stan hormonów i był całodobowo podłączony do naszych smartwatchów monitorujących puls. Będąc zmuszonym, by każdego ubezpieczonego traktować tak samo, bez względu na jego stan zdrowia czy potencjalne ryzyko, ubezpieczyciel skupiłby się na profilaktyce. Mniej chorób i przedwczesnych śmierci to korzyść dla nas – ale też dla dobrze wyregulowanego systemu ubezpieczeń.

Ale regulacje idą raczej w stronę minimalizacji przetwarzania danych przez firmy i instytucje.

Niestety niejednokrotnie regulatorzy wkładają kij w szprychy nowych technologii. Bo albo nie znają się na internecie, albo trybiki mechanizmu tworzenia legislacji nie nadążają za zmianami. Efekt jest jednak taki, że tworzą niechlujne prawo bądź – jeszcze gorzej – proszą firmy technologiczne, żeby same podejmowały decyzje. Ma to tyle samo sensu, ile oczekiwanie na samoregulację branży tytoniowej czy przemysłu naftowego. Wystarczy spojrzeć na wprowadzone w wielu krajach prawo do zapomnienia. Zmusza ono firmy do tego, aby samodzielne podejmowały decyzje, jakie informacje powinny być usunięte z wyszukiwarek, a jakie nie. I w praktyce pracownicy Google’a, niemający wykształcenia z zakresu prawa, historii czy etyki, dokonują selekcji informacji, które mają być wyrzucone z internetu. Twitterowi przyklaskuje się zaś, gdy ogłasza, że nie będzie zamieszczać reklam politycznych. Taka decyzja powinna spotkać się z ostrą krytyką, bo przecież nie jest rolą Twittera decydowanie o tym, czy politycy mają prawo umieszczać reklamy w ich serwisie.

Niedawno w Unii Europejskiej weszła dyrektywa PSD2, która ma dać obywatelom możliwość wglądu w swoje rachunki bankowe i zlecanie płatności fintechom – podmiotom oferującym innowacyjne rozwiązania finansowe. Patrząc na sukces chińskiej platformy WeChat, która służy rzeszy ludzi nie tylko jako komunikator, medium społecznościowe, ale również aplikację do płacenia, to analogicznie, lada moment cała Europa będzie płacić Facebookiem.

To prawdopodobne i niezwykle niebezpieczne. Do tej pory jak tylko pojawiał się na rynku dobry fintech, to od razu był wykupowany przez banki. I nierzadko tłamsiło się jego pomysły w zarodku. Dobre regulacje powinny chronić nowe, małe, podmioty tak by nie zabijać innowacji. Nie powinno się też pozwalać na to, aby jedna spółka miała zarówno monopol w dziedzinie mediów społecznościowych, jak i szansę na monopol w sektorze bankowym. Mam też wątpliwość, czy to korzystna sytuacja, gdy Facebook posiada oprócz swojego portalu również Instagram, Whatsapp i Messenger. Taka koncentracja powinna być niedopuszczalna.

Krytykuje pan rozwiązania prawne. Natomiast RODO, po ponad roku obowiązywania, jest raczej pozytywnie oceniane, a niektóre amerykańskie stany zamierzają się na nim wzorować w zakresie ochrony prywatności.

Często przyklaskujemy regulacjom, które na pierwszy rzut oka wydają się dla nas korzystne. Decydenci mówią, że to dla naszego dobra. Takim przykładem jest właśnie RODO. Słuszna koncepcja? Słuszna. Obawiam się jednak, że na tych przepisach zyskują największe koncerny, globalne marki. Bo stać je na dostosowanie się do wymogów, na znalezienie furtki, pozwalającej obejść prawo tam, gdzie obejść je warto. Mali gracze na to nie mają środków. I to niestety zabija postęp oraz utrwala rozwarstwienie w sektorze usług społeczeństwa informacyjnego. Co więcej, w efekcie postęp przenosi się do państw, w których nie ma tak restrykcyjnych przepisów o ochronie danych, jak np. Chiny. Pekin wyrzucił zachodnie koncerny ze swojej części internetu i oburzamy się, że to kolejny przejaw cenzury. Co po części jest prawdą. Jednak takie odcięcie się od usług monopolisty okazało się być bardzo korzystne dla Państwa Środka. Chińskie firmy nie tylko zdążyły już skopiować rozwiązania znane z korporacji amerykańskich, lecz wprowadziły też swoje – tak innowacyjne, że teraz Facebook i Google wzorują się na ich dokonaniach. W zasadzie powinno to podsuwać nam pomysł, aby np. Europejczycy mieli własną przeglądarkę internetową i nie korzystali z Google’a. Takie rozwiązanie być może zapewniłoby nam zarówno większe bezpieczeństwo, jak i szybszy postęp technologiczny.

Słyszymy o tych przenosinach do Chin od dawna. A jednak nadal USA trzymają się mocno jako potęga technologiczna.

A dlaczego trzymają się mocno? W części wynika to ze zbyt restrykcyjnych zasad ochrony danych osobowych w Unii Europejskiej. Część firm technologicznych, które działały i rozwijały się w Europie, przeniosło się do USA. Nowe inicjatywy powstawały już tam. Teraz czeka nas powtórka, tyle że przejmującym będą państwa azjatyckie, z Chinami na czele. Co to oznacza? Że wskutek braku rozsądku europejskich polityków nasze dane są przetwarzane nie w Paryżu czy Warszawie, lecz w Dolinie Krzemowej. A wskutek braku rozsądku polityków europejskich i amerykańskich za kilka lat większość naszych danych będzie przetwarzana już nie w Krzemowej Dolinie, lecz w Szanghaju.

Jak zatem powstrzymać społeczeństwo przed wpadaniem w objęcia Pekinu?

To niemożliwe albo - w bardziej optymistycznym wariancie - bardzo trudne. Ludzie sądzą, że ich decyzja, ruch myszką, nie zmienia świata, a jedynie zmienia sytuację ich samych. Przez to wybranie chińskiego portalu, zamiast europejskiego, nie jest postrzegane w kategoriach patriotyzmu w przeciwieństwie do wybrania np. krajowego jogurtu w sklepie.

A giganci tacy jak Facebook mają świadomość, że dysponując takim ogromem danych, są de facto współodpowiedzialni za współczesny świat?

Na pewno refleksji jest dziś więcej niż jeszcze kilka lat temu. To wynika z kilku powodów. Przede wszystkim ludzie, którzy pracują dla koncernów technologicznych, są tak samo jak my przerażeni tym, co się dzieje i jaką władzę mają platformy technologiczne. Chcą więc, nie szkodząc swoim pracodawcom, by korporacje zmieniały świat na lepsze, a nie na gorsze. Drugą kwestią jest widoczny nacisk ustawodawców i regulatorów na to, by globalne platformy się zmieniały. I decydenci w tych firmach to wiedzą. I wolą się zmieniać na własnych warunkach, a nie tych narzuconych przez kogoś. Choć popularne jest mówienie, że Facebook jest potężniejszy od jakiegokolwiek rządu na świecie, to widzieliśmy po sprawie Cambridge Analytica, że to tak nie działa. Facebook jest potężny, ma gigantyczny wpływ na to, co się dzieje na świecie, ale musi się dostosowywać do pewnych reguł.

Działać w sposób społecznie odpowiedzialny?

Tak, mówi się, że to ma być ich priorytet. Ale chwila, moment. Prezesi i zarządy wielkich firm nie są ani demokratycznie wybrani, ani nie muszą koniecznie wiedzieć jak być społecznie odpowiedzialnymi. Firmy działają dla zysku i zmienić to byłoby nie tylko trudne, ale i bardzo niebezpieczne. Czemu mamy ufać Zuckerbergowi i innym, że będą wiedzieli co dla społeczeństwa jest dobre? Firmy powinny zajmować się tym, na czym znają się najlepiej, czyli generowaniem zysku. A zastanawianie się, jak rynki i firmy powinny działać, by dobro społeczne maksymalizować, powinno pozostać w gestii demokratycznie wybieranych władz które te firmy regulują.

Wróćmy do sprawy Cambridge Analytica. Ponoć po wybuchu afery dostawał pan wiele pogróżek.

Jak to w życiu bywa, często zabija się posłańca złych wieści, a nie tego, kto za te wieści odpowiada. Wyjaśnijmy jasno: nie jestem autorem algorytmów, które były wykorzystywane przez Cambridge Analytica. Wiem, że niektóre media tak piszą, ale to nieprawda. Wiele lat przed wybuchem afery zajmowałem się ostrzeganiem przed nieetycznym wykorzystywaniem algorytmów. Już w 2013 r. mówiłem, że algorytmy stworzone np. przez Facebooka mają potencjał, by poprawiać ludzkie życie, ale ich niewłaściwe wykorzystanie może oznaczać ogromne naruszenie ludzkiej prywatności. Sprawa Cambridge Analytica, zastosowania algorytmów do celów politycznych, doskonale pokazała tę ciemną stronę mocy. I wtedy wiele osób przypomniało sobie o moich ostrzeżeniach. Część niestety błędnie uznała, że stworzyłem niejako instrukcję złego wykorzystywania algorytmów. Podczas gdy starałem się pokazać ryzyko, ostrzec, by do takiej sytuacji nigdy nie doszło.

Ponoć Cambridge Analytica proponowała panu pracę…

Tak. Na długo przed tym, jak cała afera wyszła na jaw. Wiedzieli, że zajmuję się algorytmami, oferowali bardzo dobre zarobki, miliony dolarów. Dziś wiem, że odmowa to był najszczęśliwszy zbieg okoliczności w moim życiu. Nie odrzuciłem bowiem ich oferty ze względu na to, czym się zajmowali – bo wówczas nie wiadomo było czym się będą zajmować w przyszłości. Odmówiłem ze względu na chęć rozwoju kariery naukowej.

Mówi się, że Cambridge Analytica pomogła Donaldowi Trumpowi zostać prezydentem. Tak było?

A skąd! Ludzie podają wybór Donalda Trumpa oraz referendum w sprawie brexitu jako przykłady, jak algorytmy zmieniły świat. To jednak ułuda. Proszę zwrócić uwagę na to, że jesteśmy już kilka lat po pierwszym referendum brexitowym, ludzie w Wielkiej Brytanii są dużo lepiej poinformowani niż cztery lata temu, a większość nadal optuje za wyjściem z UE. Donald Trump jest wciąż popularny, ma spore szanse na reelekcję. Algorytmy mogą pomagać w dotarciu do społeczeństwa, ale wybory wygrywają i przegrywają ludzie. Wiem, że przegranym łatwo jest zrzucać winę na maszyny, na algorytmy, lecz to szukanie kozła ofiarnego. Zresztą przecież nie tylko Donald Trump wykorzystywał algorytmy, by docierać do swoich wyborców. Robił to także Barack Obama, robiła to konkurentka obecnego szefa amerykańskiej administracji – Hillary Clinton. Ta ostatnia na kampanię spersonalizowanego dotarcia do wyborców wydała trzy razy więcej pieniędzy od Trumpa. I zatrudniła znacznie lepszych fachowców niż obecny prezydent. Kłopot z Cambridge Analytica leży w niezgodnym z prawem wykorzystaniem prywatnych danych, a nie w robieniu politycznego marketingu w oparciu o spersonalizowany przekaz. To, że ludzie otrzymują informacje dopasowane do swoich zainteresowań i potrzeb, uważam akurat za coś dobrego. Lepsze to od zalewania przed wyborami telewizji spotami wyborczymi, które ani nie przynoszą efektu politykom, ani nie interesują ludzi.

Mierzi nas to, że kandydat w wyborach może mówić jedno do jednego z nas, a drugie do drugiego – w zależności od naszych poglądów.

Ale przecież obaj się spotykacie, rozmawiacie z ludźmi. Szybko byście ustalili, że dany kandydat okłamuje was obu. I żaden z was by na niego nie zagłosował. Nie ma miejsca na wiele zupełnie rozbieżnych przekazów z ust jednego polityka. Ludzie udostępniają posty na Facebooku, wrzucają komentarze na Twitterze. Zresztą ekspertom od marketingu politycznego zależy na tym, by jak najmniejszym kosztem dotrzeć do jak największej grupy. A więc na tym, by przekaz polityka był udostępniany dalej przez ludzi. Algorytmy doskonale sprawdzają się zatem u tych polityków, którzy mają szeroką, ale spójną ofertę. Pozwalają ustalić, że panu trzeba prezentować pomysł na reformę edukacji, bo ma pan małe dzieci, a panu na opiekę senioralną, bo ma rodziców w podeszłym wieku. Jednak te dwie oferty się nie wykluczają.

Sęk w tym, że nieetyczny polityk może wygrać wybory dzięki temu, że jednemu z nas mówi A, drugiemu – B. A po zwycięstwie zacznie robić C.

Tak, to możliwe. Ale czy to wina algorytmów? Mamy wiele historycznych dowodów na to, że nieuczciwie postępujący politycy doskonale sobie radzą bez technologii. Popatrzcie panowie na przykład NSDAP. W siedzibie nazistowskiej partii była wielka mapa Niemiec. Na każdej małej wiosce była przybita szpilka z różnymi kolorowymi flagami. Te flagi symbolizowały to, co dla danej społeczności jest najważniejsze. Politycy NSDAP jeździli do tych wiosek, przemawiali stojąca na beczkach piwa. I mówili dokładnie to, co ludzie chcieli usłyszeć.

Dziś mieliby łatwiej. Wystarczyłoby nieetyczne wykorzystanie algorytmów.

Nie, mieliby trudniej. Raz, że wówczas będąc w jednym miasteczku, nie wiedzielibyście, co się dzieje w sąsiednim. Przekaz nie musiał więc być spójny. Dzisiaj – w erze sieci społecznościowych i kamer w telefonach – dużo łatwiej patrzeć politykom i na usta i na ręce. Dwa – marketing polityczny w oparciu o algorytmy jest tańszy od wykupowania setek ogłoszeń, reklam w telewizji itd. Pozwala więc zaistnieć kandydatom z mniejszymi pieniędzmi na kampanię, mniej widocznym w popularnych mediach. Ogranicza się też rola wielkich pieniędzy w polityce.

Co z fake newsami? Czy społeczeństwo może się przeciwko nim jakoś zaszczepić?

My tę szczepionkę już mamy w sobie! Fake newsy to bardzo popularny medialnie temat, ale w praktyce mało istotny. Z amerykańskich badań opublikowanych w czasopiśmie Science Advances wynika, że fake newsy stanowiły zaledwie promil treści, którymi dzielą się użytkownicy mediów społecznościowych i tylko kilka procent użytkowników kiedykolwiek fake newsem się z innymi podzieliło. Szokująca informacja, prawda? Gdy słuchamy polityków, radia, telewizji – wszyscy mówią o fake newsach. Ale – zapewniam – nie są one tak popularne jak myślicie. Wpływ fake newsów na życie publiczne jest minimalny. Oczywiście znajdziemy znane przykłady kłamliwego przekazu podbudowanego nowoczesnymi technologiami. Ale pamiętajmy też, że dzięki tym samym technologiom i algorytmom mamy dziś możliwość weryfikowania informacji. Na każdą osobę oszukaną przez fake newsa przypada kilkaset lub kilka tysiecy ludzi, którzy stali się lepiej poinformowani dzięki mediom społecznościowym. Jesteśmy w o wiele lepszej sytuacji niż ludzie żyjący raptem kilkadziesiąt lat temu.