Koncerny toczą zacięty wyścig o to, kto pierwszy sprzeda wojsku, policji i służbom specjalnym w pełni działające systemy rozpoznawania twarzy.
Boston, marzec 2018 r. W firmowym sklepie Apple’a dochodzi do kradzieży kilku e-rysików (cena Apple Pencil wynosi ok. 120 dol.). Analiza nagrań ze sklepowej kamery pozwala zidentyfikować złodzieja – to Ousmane Bah, licealista z Nowego Jorku. W czerwcu chłopak zostaje oskarżony o serię przywłaszczeń na terenie kilku stanów na łączną sumę ponad 1,2 tys. dol. Bah twierdzi, że nigdy nie był ani w Bostonie, ani w pozostałych miejscach przestępstw; tłumaczy, że w marcu zgubił tymczasowe prawo jazdy, którym teraz pewnie posługuje się złodziej. Sąd zwalnia go, lecz w listopadzie 2018 r. nastolatek zostaje aresztowany – zarzuca mu się kolejne kradzieże.
Rodzina wynajmuje adwokata, któremu udaje się udowodnić, że zaszła pomyłka. Bah utracił tymczasowe prawo jazdy, w którym nie było zdjęcia (bo nie jest wymagane) – zgubił je lub zostało mu skradzione. Przestępca posługiwał się nim w sklepach Apple’a (gdy chce się zapłacić kartą kredytową, to sprzedawcy często wymagają okazania dokumentu tożsamości, np. prawa jazdy) i został wtedy, jak twierdzi obrońca Baha, nagrany przez kamery systemu rozpoznawania twarzy, który wśród klientów ma „wyłuskiwać” potencjalnych złodziei (Apple zaprzecza, jakoby takie systemy działały w jego punktach sprzedaży; potwierdza, że są jedynie kamery monitoringu). Podobizna złodzieja zostaje przypisana do imienia i nazwiska Ousmane Bah – gdy więc przestępca wchodził do kolejnych sklepów Apple’a, system rozpoznawał go jako 18-latka z Nowego Jorku. Ta informacja trafiła w końcu do policji, która go aresztowała.
Sprawa wywołała burzę w USA, bo okazało się, że policja i Apple bezkrytycznie zawierzyli technologii zamontowanej w sklepach. Na dodatek Bah miał iPhone’a z system rozpoznawania twarzy FaceID, a więc jego zdjęcie było już w bazie danych komputerowego giganta. Można więc było porównać fotografie, lecz tego nie zrobiono. „Nie dopuszczali myśli, że mogą się pomylić” – napisał w pozwie przeciwko Apple’owi Ousmane Bah. Pod koniec kwietnia tego roku nastolatek wniósł przeciwko Apple’owi pozew, domagając się miliarda dolarów zadośćuczynienia za doznane krzywdy psychiczne i niezasłużony areszt.
Przypadek Baha wzburzył Amerykę, bo daje nam przedsmak świata, w którym bezkrytyczne korzystanie z technologii każdego z nas może zmienić w przestępcę, a państwo – w wielkiego policjanta. Rozgorzała debata – w samą porę – czy i jak możemy, a nawet powinniśmy, przeciwdziałać zadomowieniu się technologii FR w naszym życiu.
Biometria w służbie algorytmów
Jak działa technologia FR (Facial Recognition, rozpoznawania twarzy) – pewnie większość z nas nieco słyszała, bo naukowcy pracują nad nią od połowy lat 60. XX w. Bazuje ona na biometrycznej technice obrazowania: przedstawia ludzką twarz jako siatkę linii łączących poszczególne jej elementy, np. brew z okiem, policzek z brodą, jedną dziurkę nosa z drugą. Tak uzyskujemy wzór równie unikatowy jak nasze linie papilarne. Wystarczy potem porównać parametry twarzy ze zdjęcia, np. odległość czubka nosa od kącików ust, z informacjami zgromadzonymi w bazie danych, by dowiedzieć się, z kim mamy do czynienia. Odkąd w sporządzaniu map twarzy zaczęły nas wspomagać komputery, postęp w pracach nad FR znacząco przyspieszył.
Pierwszy system przetestowano w 2002 r. Amerykańska policja użyła go podczas Super Bowl, finałowego meczu ligi futbolu amerykańskiego, i nawet udało się jej zidentyfikować kilku przestępców. Jednak ówczesna technologia nie pozwalała na rozpoznawanie ludzi w ruchu i potrzeba było kilku lat, by inżynierowie z Doliny Krzemowej poradzili sobie z tym problemem. W pełni funkcjonalne technologie FR trafiły do sprzedaży po 2010 r. – a ich najważniejszymi dostarczycielami są Chińczycy oraz Amerykanie. Po stronie chińskiej to takie firmy jak SenseTime Group, Face++ i DeepGlint, po amerykańskiej – Amazon, Facebook i Apple, a w niedalekiej przyszłości także Microsoft oraz Google. Autorzy raportu „Face Recognition Systems Market 2016–2026”, opublikowanego w maju przez ośrodek badawczo-konsultingowy Reports and Data z Nowego Jorku, szacują, że w 2026 r. wartość rynku FR wzrośnie do 11,3 mld dol. z 4 mld w 2017 r.
Gdzie i jak już dzisiaj mamy do czynienia z technologią rozpoznawania twarzy? Przede wszystkim w urządzeniach elektronicznych, zwłaszcza w komórkach, np. apple’owska FaceID odblokowuje iPhone’a X i XS już od dwóch lat. Bazę zdjęć wykorzystywanych następnie do identyfikacji nieustannie powiększa Facebook. Za każdym razem, gdy wyrażamy zgodę, by portal otagował osoby na zamieszczanych przez nas fotografiach, w istocie dajemy mu przyzwolenie na to, by algorytm tworzył link do profilu danej osoby, usprawniając tym samym proces jej późniejszego rozpoznania. Szef FB Mark Zuckerberg chełpi się tym, że jego system FR gwarantuje aż 98-procentową skuteczność identyfikacji. Pod koniec ubiegłego roku FR zaczęła się pojawiać na amerykańskich lotniskach – z jednej strony w celach bezpieczeństwa (identyfikacja przestępców), z drugiej – by skrócić czas odprawy. Linie Delta zainstalowały system w terminalu w Atlancie, a JetBlue na nowojorskim lotnisku Johna F. Kennedy’ego. US Customs and Border Protection (federalna agencja zajmująca się cłami i monitorująca przekraczanie granic) ma w planach wprowadzenie technologii FR w 20 największych portach lotniczych w kraju do końca 2021 r. Z FR entuzjastycznie korzysta policja, uznając technologię za przełomową dla swojej pracy.
Może zdziwić, ale FR od ponad trzech lat obecna jest w niektórych amerykańskich kościołach – dzięki izraelskiej aplikacji o nazwie churchix, stworzonej z myślą o identyfikacji członków wspólnoty podczas mszy i uroczystości. Wreszcie, z FR już dzisiaj można mieć do czynienia przy wejściach do niektórych biur oraz sklepów. 31 maja władze okręgu szkolnego Lockport w stanie Nowy Jork, jako pierwsze w kraju powiadomiły, że z początkiem przyszłego roku szkolnego wprowadzą technologię FR do wszystkich swoich placówek edukacyjnych.
Wielki Brat
Tak dziś przedstawia się sytuacja. Ale jeśli elektroniczne targi CES w Las Vegas ze stycznia tego roku mogą być drogowskazem, to powinniśmy się przygotować na to, że już za chwilę technologia FR będzie z nami wszędzie.
Prócz przestrzeni publicznej zawładnie także naszym światem prywatnym, po to, by ułatwić nam życie – by nasze domy, sprzęty, pojazdy i urządzenia wiedziały, że my to my i np. zawczasu otwierały przed nami drzwi. Zdominuje także usługi, by odpowiadały jeszcze bardziej naszym gustom. Historia odwiedzanych przez nas miejsc i instytucji, wycieczek, spotkań ze znajomymi, użytkowanych sprzętów i prowadzonego stylu życia da handlowcom i reklamodawcom możliwość jeszcze lepszego przygotowywania ofert – specjalnie „pod nas”. Pracownik banku, do którego przyjdziemy po pożyczkę, nie będzie już musiał przeprowadzać czasochłonnego wywiadu na temat naszej zdolności finansowej, bo będzie to wiedział z chwilą, gdy tylko kamera sprzężona z systemem FR zarejestruje nasze wejście do placówki.
Wygoda? Oszczędność czasu i pieniędzy? Na pewno. Ale też inwigilacja na skalę, z jaką do tej pory ludzkość nie miała do czynienia. – Upowszechnienie się FR przekształci świat w miejsce, w którym będziemy non stop, do tego nie wiedząc nawet, przez kogo, obserwowani. Zagrożeniem nie jest oczywiście sam fakt obserwacji, lecz to, co z niej będzie wynikać. Kto i w jakim celu będzie korzystał ze zgromadzonych o nas danych? Kto będzie odpowiedzialny za bezpieczeństwo tych danych? Jak będziemy sobie radzić z błędami popełnianymi przez maszyny? I co, jeśli te błędy będą kogoś kosztować nie tylko wolność, ale i życie? – wylicza Albert Cahn, szef organizacji Surveillance Technology Oversight Project (STOP) walczącej o odpowiedzialne użytkowanie nowych technologii przez służby publiczne.
Błędy
STOP należy do koalicji 85. organizacji, które pod przewodnictwem American Civil Liberties Union (ACLU) – największego w USA stowarzyszenia broniącego praw człowieka – połączyły siły, by poprowadzić akcję uświadamiającą Amerykanom skalę zagrożenia, jakie niesie za sobą dalszy niekontrolowany, a przede wszystkim nieregulowany prawnie postęp technologiczny.
W połowie ubiegłego roku ACLU przeprowadziła głośny eksperyment, w którym użyła opracowanego przez Amazon programu Rekognition do identyfikacji amerykańskich parlamentarzystów: 535 zdjęć twarzy polityków porównano z bazą 25 tys. wizerunków udostępnionych przez policję. Aż 28 kongresmanów Rekognition uznał za przestępców. – Ten prosty test pokazał, jak zawodna jest technologia FR. Tajemnicą poliszynela jest, że Rekognition oraz większość oferowanych nam obecnie FR powstało na bazie analiz twarzy przede wszystkim białych mężczyzn. Rutynowo pojawiają się więc błędy w procesie identyfikacji osób kolorowych i kobiet. Jeśli zaczniemy ślepo wysługiwać się FR, można sobie tylko wyobrazić, co to będzie oznaczać dla grup społecznych i etnicznych. FR może stać się narzędziem do prześladowania, nękania czy zastraszania – przestrzega Cahn.
Niebezpieczeństwo nie polega tylko na tym, że nasze życie stanie się transparentne, lecz że coraz sprawniejsze komputerowe algorytmy będą je analizować także pod kątem naszych przyszłych działań i zachowań – jak w filmie „Raport mniejszości”. Służą do tego analizy predykcyjne (wyłuskiwanie informacji z istniejących zbiorów danych w celu określenia wzorów i przewidywania przyszłych zdarzeń), dla których technologia FR jest kolejnym paliwem. Areszt za to, że pomyśleliśmy nie po linii z obowiązującą oficjalnie ideologią, stanie się naszą codziennością, a nie tylko wymysłem pisarza sci-fi.
Albert Cahn zwraca też uwagę na problem z kluczowymi dla technologii FR bazami danych. Jeśli komuś wydaje się, że jego fotografii nie ma w żadnym zbiorze, jest w wielkim błędzie. Już dwa lata temu ośrodek Law’s Center on Privacy and Technology działający przy Uniwersytecie Georgetown ujawnił, że w bazach danych wykorzystywanych przez policję i FBI figuruje co najmniej 117 mln profili Amerykanów – czyli co drugiego dorosłego obywatela. Rząd tworzy te bazy, wykorzystując zdjęcia do prawa jazdy, wniosków paszportowych i wizowych oraz wszelkich innych dokumentów, do których dołączamy fotografie. Ale nie tylko – np. studenci Uniwersytetu Kolorado w Boulder dowiedzieli się w kwietniu tego roku, że pięć lat temu rządowe komórki wywiadu zapłaciły uczelni za realizację „projektu badawczego”, w ramach którego potajemnie sfotografowano na uczelni ok. 2 tys. osób. Zdjęcia wykorzystano do pracy nad technologią FR, choć do dziś nie wiadomo, kto dokładnie miał do nich dostęp. W Nowym Jorku jesienią ubiegłego roku wybuchł skandal, gdy wyszło na jaw, że miejski wydział policji sprzedał nagrania z kamer bezpieczeństwa firmie IBM, by ta mogła ulepszyć swój program FR.
– W ilu bazach danych i przez kogo stworzonych jesteśmy „notowani”? Kto bez naszej wiedzy i pozwolenia już na nas zarobił, a kto jeszcze zarobi w przyszłości? Co najważniejsze: z jakim dla nas skutkiem? To pytania, które musimy zadawać. I jeśli nie podobają nam się odpowiedzi – powinniśmy działać. Przede wszystkim wywierać nacisk na rządy, by jak najszybciej uregulowały branżę, nie zostawiając miejsca na niebezpieczne manewry zwłaszcza ze strony służb mundurowych – uważa Albert Cahn.
Architekci postępu przeciwko FR
Przed technologiami FR przestrzegają nawet sami inżynierowie, którzy je tworzą. W październiku ubiegłego roku na stronach portalu medium.com pojawił się list pracownika Amazona, który alarmował, że jeśli system Rekognition zacznie być, jak planuje szef firmy Jeff Bezos, sprzedawany policji i wojsku, zafundujemy sobie państwo zniewolenia żywcem wyjęte z powieści „Rok 1984”. Sprawa jest pilna, bo Bezos, jak podkreślił autor listu, ignoruje głosy rozsądku i nie ustosunkował się do zbiorowej prośby podpisanej przez pół tysiąca swoich inżynierów, by zaczekać ze sprzedażą Rekognition do czasu pojawienia się odpowiednich regulacji prawnych. Podobny nacisk wywierają na swoich pracodawców inżynierowie Google’a oraz Microsoftu, ale te firmy, w przeciwieństwie do Amazona, uległy wewnętrznej presji i oświadczyły (Google w grudniu 2017 r., Microsoft w kwietniu 2018 r.), iż zawieszają do odwołania datę wprowadzenia na rynek własnych rozwiązań FR.
Brad Smith, jeden z szefów Microsoftu, nie od dzisiaj publicznie mówi o tym, że ma problemy z etyczną stroną używania FR; nie raz krytykował też Bezosa, który ufa, że „społeczeństwo, jak zawsze, samo da sobie radę z negatywnymi skutkami nowych technologii” (w ten sposób szef Amazona skomentował w CNN publikację listu swojego pracownika przez medium.com).
Jeżeli nie będziemy mogli uciec od FR, to może wyjściem jest po prostu kamuflaż? Naukowcy z Carnegie Mellon University opracowali już okulary ze specjalnymi wzorami na oprawkach (adversarial glasses), które skutecznie zakłócają pracę systemów rozpoznawania twarzy. Niestety, postęp nie zatrzymał się na FR i ma dla nas w zanadrzu jeszcze bardziej przerażające wynalazki. Takie firmy jak chińska Watrix czy japońska Vaak już dzisiaj oferują pilotażowe systemy do identyfikacji osób na podstawie analizy zachowania (Behaviour Recognition). Te programy są w stanie rozpoznać nas po sylwetce, ruchach, charakterystycznych gestach, np. w jaki sposób otwieramy parasol czy jak zapinamy płaszcz.
W 2013 r. Edward Snowden, były pracownik CIA, ujawnił m.in., że amerykańskie agendy przyglądają się naszym poczynaniom w internecie. Prof. Jonathon Penny z Canada Centre for Global Security Studies, będący wówczas na wymianie naukowej na Uniwersytecie Harwarda, sprawdził, czy świadomość inwigilacji zmieni sposób, w jaki ludzie korzystają z sieci. Zmieniła – rzadziej wpisywano w wyszukiwarkę słowa związane z terroryzmem, takie jak Al-Kaida, broń chemiczna czy dżihad. Co ciekawe – poziom zainteresowania nie wrócił do poziomu „sprzed” Snowdena. Wniosek był jeden – narzuciliśmy sobie autocenzurę, która stała się naszym nowym nawykiem.
W ubiegłym roku filozof Evan Selinger i profesor prawa i ekonomii z Uniwersytetu Villanova w Pensylwanii Brett Frischmann opublikowali książkę „Re-Engineering Humanity” („Przetwarzanie ludzkości”). Przyglądając się interdyscyplinarnym badaniom z zakresu socjologii, ekonomii, inżynierii i medycyny, postawili pytanie: jak zmieni się społeczeństwo, gdy nasze otoczenie zostanie wyposażone w sztuczną inteligencję, a decyzje o naszym życiu będą zależeć od wyników analiz predykcyjnych? Doszli do mrożącego krew w żyłach wniosku: tworzenie coraz bardziej scyfryzowanego świata sprawia, że podatną na programowanie maszyną staje się także człowiek. „Postęp technologiczny przypuszcza atak na nasze zmysły, rozum, emocje, preferencje. W efekcie mamy do czynienia z zamachem na to wszystko, co czyni nas ludźmi: na naszą indywidualność, tożsamość oraz prawo wyboru. Jako ludzkość wkroczyliśmy na złą ścieżkę” – alarmują autorzy książki.
Na szczęście im świadomość zagrożeń jest powszechniejsza, tym aktywniejsza staje się walka z nimi. Najpopularniejszą formą protestu pozostają jak na razie pozwy sądowe składane indywidualnie i przez organizacje – używanie technologii FR, co narusza prawa człowieka. Efekty tych działań są różne. Europejski Trybunał Praw Człowieka już w ubiegłym roku stanął po stronie przeciwników FR. Ale już sąd stanowy w Illinois oddalił w styczniu tego roku pozew przeciwko Google’owi, argumentując, że skanowanie przez firmę twarzy w ramach prac nad FR, nawet jeśli odbyło się bez wiedzy uczestników eksperymentu, nie przyniosło nikomu szkody finansowej ani uszczerbku na zdrowiu, więc nie ma za co Google’a karać. Obecnie wszystkie oczy skierowane są na Wielką Brytanię, bo w maju tego roku rozpoczął się tam proces – pierwszy tego typu – przeciwko wydziałowi policji z Południowej Walii, który użył FR do monitoringu osób podczas pokojowego protestu przeciwko handlowi bronią. Orzeczenie sądu bez wątpienia ustanowi precedens dla kolejnych spraw, w których FR występuje w roli oskarżonego.
/>
Pozostaje też moc działań i decyzji na poziomie lokalnym. 14 maja tego roku przykład dały władze San Francisco, które jako pierwsze na świecie wprowadziły zakaz używania technologii FR na terenie miasta. Zakaz dotyczy wszystkich bez wyjątku, nawet policji. – Stanowimy światowe serce technologicznego postępu, dlatego spoczywa na nas tym większa odpowiedzialność, by regulować jego nadużycia, zwłaszcza, jeżeli zagrażają zdrowiu demokracji – wyjaśnił stanowisko rady miasta jej przewodniczący Aaron Peskin.