Coraz częstsze użycie algorytmów może prowadzić do dyskryminacji i powielania stereotypów. Im szybciej to pojmiemy, tym większa szansa, że nie staniemy się niewolnikami statystyk. Chce temu zapobiec Komisja Europejska
Odpowiednia diagnoza to podstawa, od której powinno się zaczynać leczenie. Przewidywanie zdarzeń rynkowych i pozostawianie w budżecie rezerwy na możliwe awarie to cechy dobrego menedżera. Szybka reakcja na potrzeby klienta pozwala firmie wyrobić sobie przewagę nad konkurencją, a analiza statystyczna zachowań społecznych może pomóc rządzącym lepiej planować wydatki i wspierać najbardziej potrzebujących obywateli. Te wszystkie zadania może wprawdzie wykonywać sztab doświadczonych ekspertów, ale człowiek – choćby poświęcił na to lata – nie przyswoi sobie tylu treści i danych, ile w krótkim czasie przetworzy maszyna wspomagana tzw. sztuczną inteligencją (SI).
SI ma być rewolucją porównywalną do wynalezienia elektryczności. Ma zmienić nasze życie na lepsze i gwałtownie przyspieszyć rozwój cywilizacji. Tak przynajmniej przekonują informacje prasowe publikowane przez liczne agencje marketingowe. Tyle że wiele firm już od lat wykorzystuje systemy wspomagane SI, a efekty bywają opłakane. Co rusz słychać doniesienia o tym, jak algorytmy w mediach społecznościowych dyskryminują treści przedstawiające mniejszości etniczne oraz promują materiały kontrowersyjne zamiast rzetelnych i sprawdzonych faktów. Maszyny mają też dyskryminować kobiety na rynku pracy, a w Stanach Zjednoczonych – prowadzić do niesłusznego osadzania Afroamerykanów w więzieniach i odbierania biedniejszym rodzinom dzieci.
Czy jednak maszyna może dyskryminować? Przecież powinna być wolna od ludzkich uprzedzeń i doświadczeń wpływających na ocenę faktów. Kłopot w tym, że za produkcję treści, które są podstawą do nauki SI, najczęściej odpowiada człowiek. I wówczas to jego błędy, troski i traumy skutkują powstaniem stereotypowych, dyskryminujących danych, które maszyna później – pomimo braku własnych emocji – powiela. Innym razem spoglądająca na świat swoim cybernetycznym okiem SI dostrzega potwierdzenie stereotypów. Wówczas jej analizy mogą się niektórym wydać dyskryminujące – choć znajdują potwierdzenie w statystykach.

Sztuczne neurony

W języku programowania co do zasady używa się algorytmów – reguł nakazujących maszynom wykonanie określonego zadania w przypadku zaistnienia określonych przesłanek, np. „jeżeli x, to y”. W logice nazywa się to implikacją. SI to program komputerowy, który zamiast wykonywać rozpisane w algorytmach polecenia wykorzystuje zaawansowane modele statystyczne do tego, żeby rozwiązywać określone zadania. Wyróżnia się warstwę uczenia maszynowego (ang. Machine Learning), gdzie system dokonuje wielu porównań w oparciu o zaimplementowane kryteria (np. wykształcenia czy przebiegu ścieżki zawodowej w rekrutacji pracowników) i podsuwa najkorzystniejsze rozwiązania. Sztuczna inteligencja różni się od prostego algorytmu tym, że potrafi sama tworzyć reguły w zależności od danych, jakie przetwarza. Jeśli np. użytkownik smartfona zaczyna pisać SMS „Ładna dziś…”, wówczas maszyna, na podstawie dotychczasowych wiadomości (również innych właścicieli telefonów) może zasugerować użycie słowa „pogoda”. Nikt nie napisał w programie, że powinien za każdym razem sugerować użycie tego słowa – to sztuczna inteligencja samodzielnie wytworzyła regułę, analizując najczęściej używane przez właścicieli smartfonów wypowiedzi.
Bardziej enigmatyczną warstwą jest tzw. głębokie uczenie (ang. Deep Learning). Wyobraźmy sobie, że mamy człowieka, który chce się nauczyć łapać piłkę. Każda wykonana przez niego próba daje mózgowi nowe informacje: jakie ruchy ciała i umiejętności są potrzebne do wykonania tego działania. Te informacje są odbierane i przetwarzane przez sieć neuronową w mózgu, której zadaniem jest przetwarzanie informacji wizualnych i koordynacja ruchów mięśni w celu złapania piłki. Kiedy pierwsze neurony w sieci są stymulowane sygnałem wejściowym i po przetworzeniu tego sygnału zostanie przekroczony określony próg, wtedy neurony są aktywowane i przekazują sygnał do kolejnych neuronów. Każde kolejne powtórzenie ćwiczenia spowoduje, że sieć będzie się wzmacniała, czego wynikiem stanie się poprawa umiejętności łapania piłki.
Radosław Broniszewski, Cloud Solutions Architect w Billennium, tłumaczy, że sztuczna inteligencja wykorzystująca tzw. sztuczne sieci neuronowe naśladuje ten sposób uczenia się. – Zamiast impulsów elektrochemicznych wykorzystuje jednak wejściowe dane numeryczne, tworzy własne reguły w oparciu o statystyki skuteczności i wytwarza w tym celu połączenia pomiędzy sztucznymi neuronami. Powstały w ten sposób zbiór statystyczny jest bardzo trudno prześledzić człowiekowi, bo nierzadko mamy do czynienia z bardzo dużą liczbą warstw danych wejściowych oraz różnorodnością ich typów, z których wiele może mieć istotny wpływ na końcowe decyzje podjęte przez maszynę – mówi Broniszewski. To dlatego głębokie uczenie często określa się mianem czarnej skrzynki (ang. Black Box) – zrozumienie samodzielnie wytworzonego przez SI kodu bywa niemożliwe.
Czasami sposób, w jaki maszyna dochodzi do określonych wniosków, zaskakuje twórców programów SI. Patryk Choroś, Business Development Director w SAS, opowiada o sytuacji, w której tworzony był model identyfikujący zdjęcia przedstawiające wilki. Model działał bardzo dobrze, miał wysoką trafność. W ramach testu usunięto wilki ze zdjęć, ale model nadal je wskazywał. – Dopiero później wyszło na jaw, iż program wcale nie uczył się tego, jak wyglądają przodkowie psów, lecz dostrzegał na dostarczonych zdjęciach... śnieg. A to dlatego, że zdecydowana większość wilków była fotografowana na śniegu – mówi Patryk Choroś.
W tej nieprzewidywalności kryją się także zagrożenia związane z masowym użyciem sztucznej inteligencji. Maszyna dąży bowiem do określonego celu w oparciu o udostępnione jej dane. Nie zważa na poprawność polityczną, uczucia mniejszości etnicznych, nie interesują jej oskarżenia o dyskryminację.
Jeszcze do niedawna największe przeglądarki internetowe na zapytanie o „CEO” pokazywały niemal wyłącznie zdjęcia mężczyzn. W 2015 r. okazało się, że algorytmy Google etykietują zdjęcia Afroamerykanów napisem „goryle”. Miało to wynikać z faktu, że system uczył się rozpoznawać twarze ludzi przede wszystkim na zdjęciach osób o białej skórze. Na popularnym serwisie społecznościowym Twitter natrafiliśmy zaś na eksperyment polegający na zestawieniu dwóch fotografii: białego oraz czarnego mężczyzny. Okazało się, że portal jako pierwsze wyświetla zdjęcie człowieka rasy kaukaskiej, chyba że użyje się programu do edycji zdjęć i znacząco rozjaśni cerę temu drugiemu – wówczas system zaczyna promować jego wizerunek.
Czy to twórcy algorytmu celowo dyskryminują kobiety oraz osoby czarne? Zdaniem twórców SI wręcz przeciwnie – polecane treści często są odzwierciedleniem działań samych użytkowników. – Każdy ruch myszą, kliknięcie w zdjęcie czy dłuższe zawieszenie się na określonej fotografii jest rejestrowane przez system. Jeżeli biały użytkownik więcej czasu spędza przy treściach ukazujących podobne do siebie osoby, to algorytm mający za cel jak najskuteczniejsze przyciągnięcie danego internauty do serwisu będzie mu serwował treści, które są dla niego, choćby i podświadomie, bardziej angażujące – dodaje Radosław Broniszewski.
Ekspert uważa jednak, że użycie systemów SI w mediach społecznościowych w pewnym stopniu niesie ze sobą negatywne skutki nie tylko dla pojedynczych użytkowników, lecz także – mówiąc dobitnie – całych społeczeństw. Jego zdaniem algorytmy w dużych społecznościówkach zamykają ludzi w informacyjnych bańkach. Powoli, ale metodycznie. Wystarczyło, żeby użytkownik raz kliknął w artykuł o szkodliwości szczepionek, sieci telekomunikacyjnych w standardzie 5G czy „plandemii COVID-19”, aby algorytm zaczął sugerować mu podobne wpisy. Jeśli internauta się skusił – dostał następną porcję treści, które miały sprawić, że spędzi on w serwisie więcej czasu i być może napisze komentarz pod postem lub wyśle polubienie, zwiększając tym samym aktywność również innych użytkowników. – Efekt jest taki, że po kilku latach mamy spolaryzowane społeczeństwo i osoby siedzące w swoich bańkach tak głęboko, że wydają się jak z różnych planet. Część z nich udostępnia nienawistne posty i dyskryminujące artykuły – uważa Radosław Broniszewski.

Spisek nie istnieje

Mało kto uważa przy tym, że twórcom portali przyświeca jakiś złowieszczy cel polaryzacji społeczeństwa. Po prostu trudno przewidzieć, jakie długofalowe skutki może mieć działanie systemów wspieranych przez SI na ludzi, ich myślenie oraz działania. Doskonale tłumaczył to na łamach DGP dr Michał Kosiński z Uniwersytetu Stanforda, specjalista w dziedzinie psychometrii, sztucznej inteligencji i big data, który już parę lat temu przestrzegał przed możliwością wystąpienia takich afer jak ta związana z aktywnością firmy Cambridge Analytica. Kosiński przekonywał, że np. Mark Zuckerberg nigdy nie miał i nadal nie ma złych zamiarów. Wręcz przeciwnie – od początku chciał tworzyć środowisko przyjazne dla użytkowników i to mu się przez wiele lat udawało. Tyle że „jeśli algorytm odnotuje, że pokazywanie użytkownikom wielkich, tłustych kotletów powoduje, iż w następnym dniu poświęcą Facebookowi więcej czasu, to uparcie będzie im wyświetlać hamburgery. Nie będzie myślał o tym, czy ci ludzie danego dnia zjedzą hamburgera, zapiją coca-colą i przez to następnego dnia będą spędzać więcej czasu przy komputerze, bo się będą czuć zbyt ociężali, by wyjść na siłownię. W sposób niezamierzony może to doprowadzić do wzrostu epidemii otyłości wśród internautów. Na tej samej zasadzie, jeśli użytkownicy czytują skrajnie prawicowe lub lewicowe artykuły zawierające teorie spiskowe, będą takimi treściami zalewani. Być może ktoś się przez to zradykalizuje, odda głos w wyborach niezgodnie z sumieniem albo zrobi coś jeszcze głupszego” – opowiadał dr Michał Kosiński.

Pracy szukam

Facebook był oskarżany także o to, że wiele ogłoszeń o pracę trafiało wyłącznie do mężczyzn. Algorytm uznawał, że skoro to oni najczęściej zajmują dane stanowisko, to bardziej efektywne będzie wyświetlanie ofert właśnie im. Systemy mogą na tej samej zasadzie odrzucać CV nadesłane przez kobiety. Dochodzi jeszcze jeden powód: maszyna może stwierdzić, że kandydatka miała roczną przerwę od pracy, i nie weźmie pod uwagę, czy była ona spowodowana urodzeniem dziecka, czy trudnym charakterem. Aby zapobiec dyskryminacji w rekrutacji, nie wystarczy więc wyrzucić z systemu kryterium płci, bo maszyna będzie szukać innych argumentów, aby stwierdzić, że jeden kandydat może być lepszy od drugiego. – Nawet jeżeli pewne dane zostaną zanonimizowane, to maszyny i tak potrafią na podstawie pośrednich cech, np. kandydat usunął nazwisko sugerujące zagraniczne pochodzenie, ale mieszka w „gorszej” dzielnicy lub był zatrudniony w miejscu, gdzie pracowało dużo imigrantów – przyznaje Michał Wlazło, software engineer w Avanade.
Czy zatem są obszary, w których nie powinno wykorzystywać się systemów SI? „Wiele osób w społeczeństwie uważa, że algorytmy nigdy nie powinny być przyczyną decyzji, która ma wpływ na jednostki. Na przykład algorytm używany przez firmy obsługujące karty kredytowe do określenia, czy ktoś kwalifikuje się do otrzymania pożyczki. Twierdzą, że algorytm nie powinien być używany do określania, czy ktoś kwalifikuje się do pożyczki, ponieważ spowoduje to niesprawiedliwe ukaranie pewnych osób. Z drugiej strony programiści i menedżerowie uważają, że algorytmy są ważne dla społeczeństwa, ponieważ mogą pomóc w skuteczniejszym podejmowaniu decyzji” – odpowiada nam... sztuczna inteligencja, a dokładniej model NLP (neurolingwistycznego programowania) o nazwie AI_concierge.

Statystycznie... prawda

Twórcy systemów SI przyznają, że algorytmy mogą uwydatniać też pewne niewygodne prawdy. – Wyobraźmy sobie model, który odpowiada za przewidywanie wyłudzeń kredytów gotówkowych. Jeżeli do jego zbudowania zostanie wykorzystana próbka danych, w której przeważają wnioskodawcy z określonej grupy, np. kobiet, to model najprawdopodobniej będzie tę grupę uważał za bardziej prawdopodobną do wyłudzeń, a co za tym idzie nie będzie miała ona równych szans w zakresie dostępności produktów finansowych – wskazuje Patryk Choroś.
– Dyskryminujące algorytmy to nie kwestia ani pracy programisty, ani jego menedżera, tylko ludzi odpowiadających za decyzje biznesowe w firmie. To oni muszą sobie odpowiedzieć na pytanie, czy wykorzystanie narzędzia, które bazuje na prawdopodobieństwie, jest etyczne – uważa Michał Wlazło. Dodaje jednak, że jeżeli w świecie potwierdza się jakikolwiek niesprawiedliwy i rasistowski stereotyp, to możemy śmiało zakładać, że algorytm go wyeksponuje.
Podobnego zdania jest Rafał Kurda, założyciel SlothEye i Machine Learning Engineer w Mobica. Przyznaje on, że obecnie SI jest bardzo daleka od tego, co widzimy w filmach science-fiction. Nie potrafimy bowiem nadal stworzyć systemu, który byłby kreatywny i miał wyobraźnię wystarczającą do przewidywania skutków swoich działań. – Obecne rozwiązania mają nosa do powiązań statystycznych, ale nie rozumieją kontekstu i całości sytuacji, w której działają. Dlatego firma prowadząca np. proces rekrutacji tylko przy wykorzystaniu SI powinna sobie zdawać sprawę, że sama SI nie przeanalizuje rzetelnie faktów i może być co najwyżej narzędziem przy takiej analizie pomocnym – twierdzi Kurda.

Sądzeni przez maszynę

Jak poważne w skutkach może być może być bezkrytyczne wykorzystanie SI, pokazuje przykład USA. W części stanów wykorzystywany jest program COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) służący do przewidywania ryzyka recydywy wśród przestępców. W 2016 r. dziennikarze organizacji ProPublica w serii nominowanych do nagrody Pulitzera artykułów wykazali, że system częściej podejmuje mylne decyzje względem osób czarnych. Dwa lata później naukowcy z Darthmouth College udowodnili, że subiektywne oceny kilkuset uczestników badania są bardziej miarodajne niż te dokonane przez COMPAS (skuteczność 67 proc. do 65 proc.). Sposób działania algorytmu jest objęty tajemnicą firmy Equivant, która zarządza systemem. Dziennikarze ustalili jednak, że SI podejmuje decyzje m.in. na podstawie danych o poprzednich wyrokach ocenianych osób oraz kwestionariuszach wypełnianych przez człowieka. Zawierają one takie pytania jak: „Czy z obserwacji wynika, że zatrzymany może być członkiem gangu?”, „Jaka część znajomych i członków rodziny zatrzymanego była kiedyś aresztowana?”, „Jak często zatrzymany przeprowadzał się w ciągu ostatniego półrocza?”, „Jak często osadzony czuje się znudzony?” oraz „Czy zatrzymany zgadza się ze stwierdzeniem, że głodna osoba ma prawo kraść?”. Jedna z teorii dotyczących nieskuteczności algorytmu wskazuje na fakt, że maszyna podejmuje decyzje w oparciu o dane, które same w sobie mogą być subiektywne i dyskryminujące. Wszak sędziowie mogli mieć własne odczucia co do danej osoby, gdy skazywali ją za poprzednie przestępstwa. A osoby wypełniające kwestionariusz na pewne pytania odpowiadały nie na podstawie faktów, lecz własnych opinii.
Ciekawym przypadkiem jest też casus stosowanego w części stanów USA systemu AFST (Allegheny Family Screening Tool), który wspomaga pracowników socjalnych podczas podejmowania decyzji, np. w sprawie rodzin, w których występuje przemoc domowa. Okazuje się, że program trzykrotnie częściej sugeruje odebranie dzieci z rodzin Afroamerykanów i par mieszanych. Twórcy systemu zwracają uwagę, iż parom białym, zwłaszcza przedstawicielom klasy średniej oraz wyższej, łatwiej ukrywać przypadki przemocy domowej, bo o wiele częściej mają oni dostęp do prywatnej opieki zdrowotnej. Mówiąc wprost: mogą pojechać do prywatnego lekarza na jeden koniec miasta i przekonać go, że dziecko spadło z huśtawki, a potem w innej klinice utrzymywać, iż brzdąc nabił sobie guza, bawiąc się z rówieśnikami. Z tego względu AFST jest używany jedynie jako wsparcie dla pracowników socjalnych, którzy są na bieżąco informowani o tego typu ograniczeniach analiz dokonywanych przez system. Świadomość niedoskonałości narzędzia ma zapobiec bezmyślnemu poleganiu urzędników na ocenach maszyny.

Pobożne życzenia Komisji

Zagrożenia płynące z coraz szerszego wykorzystywania SI dostrzegła również Komisja Europejska. W czerwcu zakończyły się konsultacje w sprawie Białej księgi w sprawie sztucznej inteligencji.
Unijnych urzędników zaniepokoiły doniesienia o przypadkach dyskryminacji w wyniku korzystania z algorytmów przez prywatne firmy. Przedstawicieli KE przeraża, że algorytmy są jak tajemnicze skrzynki, do których nikt – poza producentem – nie ma dostępu, a w przypadku powstania szkody nie da się dociec, czy winą należy obarczyć błąd oprogramowania, czy jego twórcę, który zaprogramował algorytmy, kierując się wyłącznie swoimi interesami. KE przypominała sytuację z USA, kiedy to samochód autonomiczny Ubera w 2018 r. zabił przechodnia, który przekraczał jezdnię w niedozwolonym miejscu – system nie wziął pod uwagę, że ktoś może tak postąpić. Unijni urzędnicy podkreślają, że jest niedopuszczalne, aby w podobnych przypadkach nie dało się wskazać winnego. Ich zdaniem dostęp do algorytmów SI powinien być więc łatwy, a dane możliwe do wykorzystania w sądzie jako dowód – zarówno dla organów sprawiedliwości, nadzoru, jak i dla poszkodowanych.
Eksperci mówią, że to pobożne życzenia. Dyskusja unijnych urzędników na temat etyki SI jest mocno spóźniona, a kontrola algorytmów przez nadzór może okazać się fikcją. Wystarczy spojrzeć na postępowanie irlandzkiego organu ochrony danych osobowych względem Facebooka. Koszt obsługi prawnej w tej sprawie szacuje się na blisko 3 mln euro, a szefowa urzędu wprost przyznaje, że nie dysponuje zespołem pracowników, którzy są w stanie zrozumieć, w jaki dokładnie sposób działają zaprojektowane przez pracowników amerykańskiego giganta technologicznego algorytmy.
Twórcy systemów SI mówią nam, że nie wyobrażają sobie, żeby chociażby rodzimy Urząd Ochrony Konkurencji i Konsumentów był w stanie skontrolować działania algorytmów np. w bankach. Abstrahując już od faktu, że wymagałoby to zatrudniania przez organ znakomitych specjalistów, instytucje finansowe i tak korzystają z wielu różnych modeli dla określonych rodzajów klientów. To byłoby niezwykle trudne do przeprowadzenia przedsięwzięcie i trudno oczekiwać, żeby urząd był w stanie wskazać ewentualne nieprawidłowości.
Eksperci uważają jednak, że unijni oficjele powinni poważnie pomyśleć o wdrożeniu przepisów sektorowych, które wprost wskażą, że systemy SI nie powinny nikogo dyskryminować – np. ze względu na płeć, rasę czy orientację seksualną. Firmy musiałyby wówczas już na etapie przygotowywania algorytmów myśleć o rozwiązaniach uniemożliwiających tego typu szykany. Nasi rozmówcy są zgodni, że niezależnie od przepisów i zwiększenia transparentności systemów SI używanych przez firmy, to ludzie powinni podnosić swoją świadomość, że w coraz liczniejszych obszarach życia są i będą osądzani przez maszyny.
Maszyna dąży do określonego celu w oparciu o udostępnione dane. Nie zważa na poprawność polityczną, uczucia mniejszości i oskarżenia o dyskryminację