Ryzyko pozostawienia algorytmów bez nadzoru jest bardzo duże. Maszyny zaczynają przejmować kontrolę nad kolejnymi dziedzinami życia – mówi Piotr Sankowski, profesor na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego, prezes IDEAS NCBR.

ikona lupy />
Piotr Sankowski profesor na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego, prezes IDEAS NCBR / Materiały prasowe / fot. materialy prasowe
Właśnie otrzymał pan grant Europejskiej Rady ds. Badań Naukowych na projekt dotyczący wyjaśniania, jak działają algorytmy. Dlaczego takie badania są potrzebne?

Z jednej strony wiemy, jak je tworzyć, umiemy je uczyć i bardzo ogólnie rozumiemy, jak działają. Z drugiej wciąż nie umiemy przeprowadzić ich inspekcji. Jeżeli podejmują one jakąś decyzję, nie umiemy stwierdzić, dlaczego w konkretnym przypadku to zrobiły. Czy to wynika z danych, jakie pozyskały? Jakiegoś błędu czy innego problemu? Powinniśmy umieć prześledzić ten proces i to właśnie staramy się zrobić w moim projekcie.

Na przykład?

Wielokrotnie byłem świadkiem, że ktoś uruchamia aplikację z GPS, dostaje podpowiedzi dotyczące trasy, a i tak mówi, że to niemożliwe, by to była najszybsza droga.

To o mnie.

Chcielibyśmy doprowadzić do tego, żeby stworzyć metody, które umieją wyjaśniać ich decyzje. Jeżeli więc GPS znajdzie jakąś najkrótszą drogę, powinien pani wyjaśnić, skąd to wie. Teraz tego nie robi, a pani mu nie ufa. Moim zdaniem wyjaśnialność jest ważna dla budowy zaufania do tych systemów. Na co dzień zajmuję się algorytmami optymalizacyjnymi. To taki rodzaj algorytmów, które przypisują do siebie elementy, np. reklamy w internecie do użytkownika albo pacjentów z kolejki do lekarzy. W takich przypadkach musimy umieć wyjaśnić, dlaczego maszyna podjęła taką decyzję, dlaczego to jest najlepszy wybór. Tylko jeśli będziemy znali przebieg procesu podejmowania decyzji, uznamy algorytm za bezpieczny.

W jaki sposób można to zrobić?

W projekcie stawiamy na automatyzację. Chcemy wytworzyć oprogramowanie, które analizuje algorytmy, i wstępnie je przetestować. Mamy finansowanie projektu na półtora roku, będzie przy nim pracowało maksymalnie pięć osób. Głównym wyzwaniem będzie znalezienie firm, które będą chciały testowo zaimplementować te rozwiązania. Kiedy otrzymamy od nich informację zwrotną, okaże się, czy badania można skomercjalizować.

Wyjaśnialność algorytmu będzie w przyszłości przewagą konkurencyjną?

Być może. Zresztą w Unii Europejskiej będzie to nakazane prawnie. Nadzór człowieka nad algorytmem wydaje się regułą podstawową i jeśli ktoś nie wdroży rozwiązań, które umożliwią taki nadzór, części produktów nie będzie można wdrożyć. To zrozumiałe; ludzie chcą rozumieć, co się dzieje. Jeżeli rozumiemy przesłanki pewnych decyzji, to po prostu chętniej je stosujemy.

Kto powinien nadzorować algorytmy? Piłka jest po stronie państwa czy samych firm?

Moim zdaniem w jakimś zakresie mogłoby to robić państwo poprzez agencje certyfikujące. Tak jak dziś dzieje się z certyfikacją sztucznej inteligencji w zastosowaniach medycznych.

Algorytmy już dziś decydują w wielu obszarach naszego życia. Dlaczego dopiero teraz rozmawiamy o wyjaśnialności?

Myślę, że potrzebny był czas, żeby zrozumieć, jak algorytmy wpływają na nasze życie. Spójrzmy na sieci społecznościowe. Ogromne, zamknięte korporacje działają w sposób, który jest dla nich dochodowy. Opłaca im się kształtować bańki informacyjne, promować dezinformację, bo wówczas użytkownicy chętniej się angażują, a firmy zarabiają. Ale użytkownicy już to widzą i powoli odchodzą np. od Facebooka.

Europa reguluje sztuczną inteligencję, ale tego samego nie robią Stany Zjednoczone czy Indie. Słychać głosy, że zostaniemy przez to w tyle.

Nie jestem ekspertem od polityki, ale wydaje mi się, że ryzyko związane z pozostawieniem algorytmów poza kontrolą jest bardzo duże. W USA algorytm Twittera przyczynił się do szturmu na Kapitol, bo promował wśród użytkowników nawołujące do niego wiadomości. Ludzie, którym to algorytm dostarcza informacje, zamykają się w bańkach, nie widzą drugiej strony, nie mają możliwości rozmowy z osobami o innych poglądach na świat. Jeżeli nie uregulujemy działania takich systemów, zdobędą one zbyt dużą kontrolę nad tym, co myślą ludzie. Wiele osób zajmujących się AI straszy, że maszyny zyskają świadomość. Myślę, że zagrożeniem jest nie to, ale algorytmy, które już istnieją, i ich wpływ na nasze społeczeństwo. Dziś algorytmy decydują, jakie produkty wyświetlą nam się na platformach zakupowych, gdzie dostawić nowe automaty na paczki, czy dostaniemy pracę i kredyt. To dość przytłaczające, bo maszyny zaczynają przejmować kontrolę nad kolejnymi dziedzinami naszego życia. Trudno nie zatęsknić za ludzką rejestratorką w przychodni. Te wszystkie zastosowania są w porządku, dopóki czuwa nad nimi człowiek. Takie zresztą zalecenia pojawiają się w rekomendacjach tworzonych przez UE. I właśnie ten człowiek musi rozumieć, dlaczego algorytmy decydują w określony sposób.

Tylko jak się tego dowiedzieć, jeżeli dziś firmy technologiczne zasłaniają się tajemnicą biznesową?

Faktycznie trwają dyskusje o tym, co powinno być jawne. Moim zdaniem dane w systemach optymalizacyjnych powinny być udostępniane przynajmniej dla badaczy. Jeśli chodzi o wielkie modele językowe, takie jak GPT4, jawne powinny być decyzje projektowe, związane z aspektami politycznymi.

To znaczy OpenAI czy Google powinny pokazać zbiór danych, na których trenowały robota?

Właściwie każdy ma do niego dostęp. Wystarczy ściągnąć sobie na dysk cały internet i gotowe. Natomiast firmy projektujące duże modele podejmowały pewne decyzje strategiczne. GPT nie opowiada żartów o politykach czy Allahu. Za każdym razem dodaje informację, że to wrażliwa materia. O takim zachowaniu zdecydował gdzieś jakiś człowiek i użytkownik powinien być świadom wartości, jakie są zapisane w takim modelu.

Może są one odzwierciedleniem poglądów osób, które nad nimi pracowały?

W pewnym sensie na pewno tak jest, ale – jeszcze raz podkreślam – użytkownik musi wiedzieć, z jakim narzędziem ma do czynienia. W niektórych branżach ścisła kontrola już jest warunkiem dopuszczenia do użycia, choćby w medycynie. Aby sztuczna inteligencja mogła pomagać lekarzom, musi nastąpić audyt całego procesu tworzenia wykorzystującego ją oprogramowania.

W wąskiej dziedzinie takiej jak prawo czy medycyna to łatwiejsze niż w generalnych algorytmach. Jakie zasady mogłyby być podwaliną ChatGPT lub Barda?

Możliwości jest wiele i w przyszłości będą powstawały różne modele. Są zespoły, które zastanawiają się nad przyjęciem jako bazy Powszechnej deklaracji praw człowieka albo trzech praw robotyki Isaaca Asimova. Można sobie wyobrazić, że model, który powstanie na Bliskim Wschodzie, będzie miał u podstaw zupełnie co innego, niż ten, który powstał w Kalifornii.

Czy zaprogramowanie czegoś takiego jest realne?

Nie mam pojęcia, jak to zrobić. To bardzo ciekawy problem. Wydaje mi się, że to, o czym rozmawiamy, wskazuje, że sztuczna inteligencja, która była rzeczywiście hermetyczną dziedziną informatyki, staje się czymś naprawdę interdyscyplinarnym. To już nie tylko kwestia kodowania, lecz także pytań o ludzką naturę, o podstawy filozoficzne i etyczne. Problem pierwszy z brzegu: czym jest sprawiedliwość społeczna? Wszystkim po równo, każdemu według potrzeb czy według pracy? Jak ją zapisać w algorytmach? Musimy zacząć zadawać sobie tego typu pytania, bo będą nas dotykały konsekwencje tego, że ktoś to zakoduje.

Jak można zaprogramować sprawiedliwość?

Technicznie to nie jest trudne. Są modele matematyczne, które o niej mówią. Choć oczywiście na poziomie pisania kodu programistom mogą zdarzać się przeinaczenia. Trudne jest podjęcie decyzji, co właściwie chcemy zakodować.

Czyli w zespołach pracujących nad algorytmami potrzebni są nie tylko programiści, ale też filozofowie, etycy czy matematycy?

Myślę, że to słuszny wniosek. Potrzeba ogólnej dyskusji na temat tego, czego my właściwie oczekujemy od systemów. ©℗

Rozmawiała Anna Wittenberg