Algorytmy, modele i systemy otaczają nas z każdej strony, choć często nie mamy o tym pojęcia. Te rozwiązania utożsamiamy z tzw. sztuczną inteligencją, której ludzki charakter nadały m.in. hollywoodzkie filmy, takie jak „Terminator”. W praktyce jednak to, co nazywamy sztuczną inteligencją, ma przyziemny i praktyczny charakter, przyjmując formę algorytmów kategoryzujących użytkowników, modeli oceniających prawdopodobieństwo, że wpadniemy w zakupowy szał, systemów identyfikowania nas z użyciem biometrii (np. rysów twarzy). Są one wykorzystywane przez prywatne przedsiębiorstwa, platformy społecznościowe i zakupowe, a także coraz częściej przez państwo, np. do dystrybucji benefitów socjalnych.

Rozwiązania te są tworzone przez ludzi, którzy wykorzystując je, wpływają na zachowanie człowieka i stan jego umysłu. Część produktów i usług opartych na sztucznej inteligencji jest udostępniana w dobrej wierze, lecz są i takie, które mogą mieć nie zawsze pozytywny skutek, niekiedy prowadząc nas do zamknięcia w bańce informacyjnej, a czasem powodując utratę środków finansowych. Coraz częściej wpływają też na nasze samopoczucie. Nie jest to niestety science fiction z hollywoodzkich produkcji, ale rzeczywistość.

Zapewnić bezpieczeństwo

Od kilku lat Unia pracuje nad stworzeniem ram prawnych (i regulacyjnych) dla bezpieczniejszego środowiska cyfrowego, w którym użytkownik będzie mógł czuć się swobodnie i bez obaw korzystać z dobrodziejstw, które zapewniają internet i pokrewne technologie. Emanacją tych starań są chociażby projektowane rozporządzenie w sprawie sztucznej inteligencji i opublikowane niedawno projektowane przepisy określające nowe zasady dla odpowiedzialności pozakontraktowej za działanie systemów sztucznej inteligencji.
Kilka miesięcy temu zostały też uchwalone przepisy dotyczące europejskiego zarządzania danymi, które zmierzają do uporządkowania obszaru pośrednictwa w udostępnianiu danych, a platformy internetowe, w tym społecznościowe i sprzedażowe, będą niedługo podlegać nowym wymogom wynikającym z rozporządzeń dotyczących rynku i usług cyfrowych. Wszystko w imię ochrony wartości, które Unia uznaje za wspólne, a także praw podstawowych, które gwarantuje nam m.in. Karta praw podstawowych.
Instytucje unijne idą dalej, czego dowodem jest proces formalnego przyjęcia deklaracji dotyczącej praw cyfrowych, które mają poprawić tę ochronę. Pojawia się tu jednak istotne pytanie – czy same deklaracje wystarczą, aby uchronić obywateli przed zagrożeniami, do których niekiedy sami się przyczyniają, zostawiając swój ślad cyfrowy. Czy nie ma potrzeby podejmowania bardziej zdecydowanych działań nie tyle w obszarze stanowienia prawa, ile w jego skutecznym egzekwowaniu?

Sztuczna, ale ludzka

Ważne pytanie dotyczy także tego, jak ma wyglądać przyszłość internetu i czy będzie on scentralizowany czy zdecentralizowany, a więc oddany w ręce obywateli. Model ten, choć niezwykle pociągający, ma jednak wiele wad, których usunięcie zajmie jeszcze pewnie kilka najbliższych lat. Również tutaj UE zaczyna prowadzić pewne działania w kierunku wykorzystania i uporządkowania technologii rozproszonego rejestru i łańcucha bloków, choć zadanie to nie należy do najłatwiejszych ze względu na potencjalny brak kontroli nad wieloma aspektami ich wykorzystania.
Nie należy jednak zapominać, że mniej lub bardziej zaawansowana sztuczna inteligencja nadal jest bardzo ludzka. Aż do bólu. Cele, dane wykorzystywane do jej wytrenowania, bieżący nadzór i rezultaty działania – to wszystko sprowadza się do człowieka. Systemy sztucznej inteligencji, nawet te najbardziej wyrafinowane, daleko odbiegają od wzorca, jakim – przynajmniej w niektórych przypadkach – ma być człowiek. Rozwiązania te są tworzone też w zupełnie innym celu. Po to, aby skłonić nas do czegoś, przekonać, wywołać określony stan. Czasem w dobrej wierze, czasem niekoniecznie. Czasem celowo, czasem nie.
Przykładów działania sztucznej inteligencji możemy szukać praktycznie w każdej dziedzinie życia i oczekiwać, że będzie tylko bardziej intensywnie. Wpływ takich rozwiązań będzie też coraz większy i jeżeli nie przygotujemy się na to, to może to być źródłem wielu problemów. Całkiem ludzkich.

Jak otwarta księga

Nawet najbardziej restrykcyjne przepisy nie uchronią nas przed tymi zagrożeniami, jeżeli nie spróbujemy zrozumieć ich źródeł. Musimy zwracać uwagę na to, z jakich danych korzystamy i czy nie towarzyszy nam algorytmiczne skrzywienie zarówno wtedy, gdy tworzymy sztuczną inteligencję, jak i wtedy, gdy jesteśmy użytkownikami bądź odbiorcami takich rozwiązań. Te źródła tkwią w danych, które wykorzystujemy, w ich jakości i ilości. Dane, które zawierają błędy, nie są reprezentatywne albo „zakrzywiają” rzeczywistość, zawsze będą źródłem nieporozumień, a niekiedy szkody – fizycznej, psychicznej lub ekonomicznej.
Musimy więc pamiętać, że to, co tworzymy i co pozostawiamy w internecie, ma znaczenie dla przyszłości cyfrowego świata i jakości sztucznej inteligencji. Ma też znaczenie dla nas samych, bo im więcej dajemy od siebie, tym więcej dostajemy, ale i stajemy się niczym otwarta księga. Wiele informacji o nas samych można wywieść z naszych działań w internecie.
Innymi słowy, sztuczna inteligencja to człowiek. Jasne, jest tam całkiem spory wątek techniczny, który pozwala na samodzielną (lub częściowo samodzielną) naukę, ale wszystko krąży wokół człowieka. Tutaj bez budowania postaw etycznych będziemy zmierzać ku „złym” algorytmom, które zamiast dawać nam poczucie bezpieczeństwa, będą wywoływały u nas niepokój. To scenariusz, który paradoksalnie jest gorszy niż ten z „Terminatora”. Dlaczego? Bo realny. ©℗