Jeśli nieskrępowany rozwój modeli językowych zacznie prowadzić do tragedii – np. samobójstw po czatowaniu z wyszukiwarką Bing czy asystentem w Wordzie – to trzeba będzie pamiętać o wszystkich osobach, które są za to odpowiedzialne - uważa Jan J. Zygmuntowski ekonomista, współprzewodniczący Polskiej Sieci Ekonomii i dyrektor programowy CoopTech Hub.

Z Janem J. Zygmuntowskim rozmawia Anna Wittenberg
Trzy lata temu z nagłówków nie schodził blockchain, później było metawersum, a od listopada świat śledzi rozwój sztucznej inteligencji. To kolejna bańka mydlana czy tym razem prawdziwy przełom?

Tam z laptopami siedzą moi studenci. Mają spotkanie z inwestorami w sprawie swojej firmy. Jeden rozmawia na Zoomie, drugi ma otwarty ChatGPT i wspomaga się nim w rozmowie. Dzięki temu mają o jeden mózg więcej. To chyba najlepsza odpowiedź.

Karol Marks pisał, że ilość przemienia się w jakość i to właśnie widzimy dzisiaj – wystarczy spojrzeć na liczbę publikacji naukowych dotyczących AI czy gromadzone od lat big data, żeby zobaczyć, że rozwój tych narzędzi nie wziął się znikąd. Dziś po prostu osiągnął punkt krytyczny, w którym przedostały się one do powszechnego użycia. Zainteresowanie modelami generatywnej sztucznej inteligencji to kontynuacja rewolucji, dowód na to, że osiągamy dojrzałość technologiczną. To stawia przed nami poważne wyzwania.

Jakie?

Musimy się zastanowić, jak ograniczać negatywne skutki nasycenia technologią. Dokładnie tak, jak w czasie rewolucji przemysłowej. Lewis Mumford bardzo precyzyjnie opisuje w swojej książce „Technics and Civilization”, że wiązała się ona z fatalnymi warunkami pracy i mieszkania, tonami śmieci zalewającymi miasta. To wszystko można było poprawić, ale do tego musieli zorganizować się obywatele i zmusić państwo do wprowadzenia standardów. Musimy dziś zadziałać, by w czasie, kiedy technologia rozwija się z olbrzymią prędkością, ustanowić dla niej zasady wymiatające z rynku tych, którzy działają szkodliwie, nie zważając na swój wpływ na społeczeństwo i środowisko.

Co jest dzisiaj odpowiednikiem śmieci na ulicach?

Weźmy efekty Facebooka, Twittera, Instagrama, TikToka – mają w tle najbardziej rozbudowane dzisiaj mechanizmy sztucznej inteligencji, które żerują na naszych słabościach behawioralnych. Niektórzy, jak Shoshana Zuboff, sądzą, że stoi za tym jakiś wielki plan, inżynieria społeczna. Ja tak nie uważam. Moim zdaniem to po prostu pochodna modelu biznesowego, który maksymalizuje zysk z naszego czasu spędzonego w smartfonie – firmom zależy, by trzymać nas jak najdłużej, żeby wcisnąć nam więcej reklam. Zanieczyszczeniami są tu uzależnienie od telefonu, ograniczenie czasu spędzanego z innymi ludźmi czy epidemia depresji.

Tymczasem tuż przed tym, jak Microsoft ogłosił, że wprowadza ChatGPT do swojej przeglądarki i edytorów dokumentów, zwolnił zespół ds. odpowiedzialnego AI. Co nam to mówi o rozwoju sztucznej inteligencji?

Takie zespoły odgrywają ważną rolę w badaniu i ujawnianiu problemów związanych z algorytmami i modelami, które są stosowane w biznesie. Mogą one również pomóc w identyfikacji potencjalnych problemów – choćby z dyskryminacją czy innymi wypaczeniami systemów – co może prowadzić do ulepszenia modeli i redukcji ich negatywnych wpływów. Przyczyniają się do lepszego zrozumienia technologii i ich skutków, co zwiększa zaufanie do systemów opartych na sztucznej inteligencji. Istnienie zespołów ds. etyki w firmach było elementem wizji, którą nam przez lata sprzedawano, a która nazywała się samoregulacją. To wielkie kłamstwo, biznes sam się nie ureguluje, bo czemu miałby to robić. Firmy wdrażające rozwiązania oparte na sztucznej inteligencji nie mają w tym żadnego interesu, dlatego państwo musi bardzo surowo wprowadzać demokratyczną kontrolę nad produktem, nie ma innego wyjścia.

Dlaczego Microsoft nie chciał dłużej utrzymywać tego zespołu?

Nie zdziwiłbym się, gdyby to był efekt zacieśniania współpracy ze sponsorowaną przez Microsoft firmą, która stworzyła ChatGPT. Nazwała się OpenAI i zaczynała jako non profit, ale szybko postawiła na działanie dla zysku i teraz właściwie stała się bardziej „SecretAI”. Nie wiemy, z jakich danych składa się ostatnio wypuszczony przez nią model ChatGPT4, nie wiemy, jaka była metoda jego uczenia. A że produkty tej firmy są wdrażane w wielu narzędziach Microsoftu, to być może wśród członków jego zespołu etycznego pojawiły się znaki zapytania. Mogli mówić: „a może coś przetestujmy, zanim to wdrożymy”. Ale to spowodowałoby spowolnienie.

Naukowcy z Future of Life Institute wystosowali list otwarty, by wstrzymać prace nad AI na pół roku, do czasu ustanowienia odpowiednich regulacji. Podpisał go m.in. Elon Musk.

Po czym sam zatrudnił ludzi, którzy zajmowali się trenowaniem modeli językowych w Google. Myślę, że taki apel nie ma szans na skuteczność, bo firmy technologiczne są w momencie, w którym dzięki AI mogą stanąć do wyścigu z Google czy Metą i podważyć dotychczasowe status quo. Taka szansa nie zdarza się często, więc nie zrezygnują tylko dlatego, że ktoś podpisał jakąś petycję. Pozostaje więc liczyć na siłę zorganizowanego świata pracy.

Związki zawodowe?

Potrzebujemy sojuszu szerokiej strony społecznej z inżynierami, którzy są w środku i rozumieją, co się dzieje. Musimy zastanowić się nad sensownymi zasadami działania machiny i regulować. Słyszałem wiele razy, że informatycy to arystokracja świata pracy, że mają gdzieś interes społeczny... A tymczasem okazało się, że oni są pierwsi w kolejce do wyrzucenia z pracy. Na tym właśnie polega rewolucja ChatGPT – jej konsekwencje są nieoczywiste, w dużej mierze także trudne do przewidzenia.

Nie mam pojęcia o kodowaniu, a przy użyciu tego narzędzia udało mi się zaprogramować proste skrypty. Tłumaczył mi, co mam po kolei zrobić, i to naprawdę zadziałało.

Parę lat temu bardzo popularna była publikacja Carla Benedicta Freya i Michaela A. Osborne’a o tym, jak rozwój AI zmiecie rynek pracy. Dowodziła, że 47 proc. zawodów jest do zastąpienia przez roboty. To bazowało na założeniach, czy praca jest rutynowa, czy ją łatwo zautomatyzować. Na szczycie oczywiście byli pracownicy magazynów, kierowcy, kasjerzy. Jak to wygląda dzisiaj? W Biedronce są kasy samoobsługowe, ale muszą do nich co chwila przychodzić kasjerzy. Autonomicznych ciężarówek jak nie było, tak nie ma, a ludzie, którzy jeżdżą teslami, boją się włączać tryb automatyczny, żeby nie skończyć na drzewie. Natomiast pierwsi do wymiecenia są pracownicy umysłowi, inżynierowie, content writerzy, bo uczenie maszynowe na języku jest bardzo efektywne. A skoro tak, to w ich interesie – do was mówię, jeśli to czytacie – w waszym interesie jest to, żeby razem z szeroką społecznością zorganizować się i wcisnąć guzik „stop”.

Programiści mają odejść od biurek i przestać kodować duże modele językowe?

To nie jest aż tak niewyobrażalne. W 2018 r. pracownicy Google odeszli od biurek w ramach akcji „Google walkout”, kiedy wyszło na jaw, że management ukrywa skandal seksualny. Andy Rubin, który miał się dopuszczać niewłaściwych zachowań wobec kobiet, otrzymał 90 mln dol. odprawy. Kiedy z kolei okazało się, że Google jest zaangażowany w Project Maven, czyli trenowanie rozpoznawania twarzy, żeby drony autonomicznie mogły strzelać do ludzi na Bliskim Wschodzie, 4 tys. pracowników podpisało list otwarty do władz spółki, a część złożyła rezygnację. Ostatecznie Google nie odnowił kontraktu z Pentagonem. Czyli da się zadziałać, jeśli uznamy, że to, co robi nasza firma, nie mieści się w naszych normach moralnych.

Pracownicy Microsoftu powinni powiedzieć: nie będziemy wdrażać ChatGPT w naszych produktach?

Moim zdaniem, jeśli tego nie zrobią, to trzeba będzie ich zapamiętać na przyszłość. Jeśli nieskrępowany rozwój modeli językowych zacznie prowadzić do tragedii – np. samobójstw po czatowaniu z wyszukiwarką Bing czy asystentem w Wordzie – to trzeba będzie pamiętać o wszystkich osobach, które są za to odpowiedzialne. Lekarzy obowiązuje przyrzeczenie lekarskie, odpowiedzialność zawodowa, inżynierowie też muszą mieć świadomość co i dla kogo tworzą. Jeśli ktoś nie ma namysłu nad tym, do czego prowadzi jego działalność, tylko goni w pędzie za zyskiem, to moim zdaniem jest współodpowiedzialny za ewentualne konsekwencje.

Wprowadzenie ChatGPT do wyszukiwarki Bing od Microsoftu spowodowało, że w kilka tygodni zdobyła ona 4-proc. udział w rynku, a od lat tkwiła na poziomie 1 proc. Samsung rozważa zerwanie współpracy z Google, to właśnie Bing ma być preinstalowaną wyszukiwarką na jego urządzeniach. Trudno powiedzieć firmie, żeby z tego zrezygnowała.

O tym mówiłem. AI pozwoliło rzucić wyzwanie i korporacje nie wprowadzą samoregulacji, nie zrezygnują z możliwości, które stwarzają nowe narzędzia. Drugą stroną medalu są jednak zagrożenia – chociażby takie, że algorytmy mogą halucynować, czyli podpowiadać nieprawdziwe rzeczy. Ludzie też to robią, ale między nami a maszyną istnieje fundamentalna różnica: ludzie mają świadomość swojego procesu twórczego, wiedzą, że mogą popełniać błędy. Algorytmy odpowiadają na pytania z pełnym przekonaniem, nawet jeśli są to odpowiedzi fałszywe. Z powodzeniem wygenerują streszczenie artykułu naukowego, którego nie ma, do tego jeszcze podadzą linki do nieistniejących źródeł. A jak ktoś się nie zgodzi, to jeszcze go obrażą. To o tyle niebezpieczne, że generatywna sztuczna inteligencja jest wprowadzana do wielu branż, także takich, w których błędy mogą naprawdę dużo kosztować. Uważam, że należy ściśle regulować warunki integracji AI w już stosowanych systemach IT. Jeśli ktoś wchodzi na stronę tzw. OpenAI i testuje ChatGPT, to jest w porządku – jest w piaskownicy na własne ryzyko. Ale są sytuacje, w których użycie generatywnej sztucznej inteligencji może mieć poważne konsekwencje.

Na przykład?

Weźmy prawo. Pewnie algorytm jest niezłą przeglądarką dokumentów, ale wprowadzenie go zamiast żywych prawników do infolinii prawnej może być nierozsądne. System może nie zrozumieć istotnych kontekstów sprawy i wprowadzać odbiorcę w błąd. Nie umiem sobie wyobrazić, żeby maszyna doradzała choćby w takich kwestiach, jak np. wynajem mieszkań czy spory pracownicze, które wymagają zrozumienia całej społeczno-ekonomicznej sytuacji. Moim zdaniem momentem przełomowym może być przyjęcie AI Act, nad którym trwają prace w Parlamencie Europejskim. Żeby tak się stało, musi być on jednak bardzo ambitny.

Jakie zasady powinny się w nim znaleźć?

Konieczna jest certyfikacja narzędzi opartych na sztucznej inteligencji. Aby zostały dopuszczone do obiegu, muszą być transparentne, czyli dawać możliwości sprawdzenia, w jaki sposób działają, na jakiej bazie zostały wytrenowane. Użycie AI powinno być opcjonalne, a nie domyślne dla użytkownika, który często nie ma nic do powiedzenia na końcu „łańcucha pokarmowego”. Być może musimy mówić o jakichś mniejszych modelach, które nie są w ogólnym użytku, ale za to wiemy, że są bezpieczne w tym wąskim zakresie. Że nie będą halucynować, jeśli przyjdzie im doradzać prawnikom.

Bloomberg wprowadza narzędzie do analityki finansowej, które zostało wytrenowane na jego bazie danych. To dobra droga?

Nie wiem dokładnie, jak to działa, więc trudno mi powiedzieć, ale co do zasady o to chodzi. Jeśli model ma być używany w polskiej służbie zdrowia, to musi być certyfikowany na polskie, a nie chińskie czy kenijskie dane medyczne. Inne choroby trawią naszą populację, inaczej wyglądają objawy. Jeśli sztuczna inteligencja ma pomóc w ich wykrywaniu, to musi znać nasze dane.

Kolejny wielki temat to: skąd model ma mieć takie informacje, jak je udostępniać i kto ma na nich zarabiać. Dane to dzisiaj najważniejszy surowiec i wielkie firmy zrobią wszystko, żeby je przejąć. A to spowoduje, że będziemy za nie płacić dwa razy – pierwszy, kiedy przekażemy nasze dane (bo mają one realną wartość), a drugi, kiedy system ochrony zdrowia finansowany z naszych podatków będzie musiał kupić wytrenowane na nich produkty.

Powinniśmy budować państwowe aplikacje oparte na AI?

Niekoniecznie. Państwo powinno być depozytariuszem naszych danych, tworzyć rejestry i stać na straży dostępu do nich. Trzymając się danych medycznych – dzisiaj sprawna firma medyczna może iść do szpitali i samodzielnie wyszarpywać dane o pacjentach na podstawie indywidualnych zgód, a potem wykorzystywać je do jakichś swoich celów. A powinno być tak: państwo integruje dane z NFZ, z aplikacji zdrowotnych, z prywatnych klinik, trzyma je w bezpiecznym środowisku. Później ściśle reglamentuje dostęp do nich określonym podmiotom. I tak będzie, jeśli wdrożymy Europejską przestrzeń danych dotyczących zdrowia (European Health Data Space) w racjonalny sposób. Podobnie jeśli chodzi o inne branże – samorządy mają dane dotyczące miejskiej mobilności, mapy, rejestry nieruchomości. Firmy energetyczne – dane z inteligentnych liczników. Wszystkich można używać, by poprawić życie mieszkańców, ale trzeba też mieć nad nimi kontrolę. Jeśli jej nie będzie, to zawsze skończy się tak, że przyjdzie jakieś OpenAI, przejmie dostęp do wielkich zbiorów danych, a później zamknie je i każe sobie za nie płacić. Żeby zawalczyć o dobry system, potrzeba jednak silnych instytucji.

Biznes sam się nie ureguluje, bo czemu miałby to robić. Firmy wdrażające rozwiązania oparte na sztucznej inteligencji nie mają w tym żadnego interesu, dlatego państwo musi bardzo surowo wprowadzać demokratyczną kontrolę nad produktem, nie ma innego wyjścia

Słyszę tu wyrzut, że takich nie mamy.

W kraju powinien być ośrodek, który rozumie AI i jest w stanie certyfikować systemy oparte na sztucznej inteligencji. Ministerstwo Cyfryzacji powinno zajmować się nie kupowaniem laptopów dla uczniów, tylko nadzorem nad platformami, przepływem danych. To nie spadnie z nieba albo z Brukseli. Kiedy w UE zostaną już przyjęte regulacje, kraj członkowski będzie musiał przygotować wdrożenie przepisów. Czy jesteśmy na to gotowi? Patrząc na historię Aktu o rynkach cyfrowych i Aktu o usługach cyfrowych, śmiem wątpić. Zgodnie z nimi Polska powinna choćby wybrać koordynatora ds. usług cyfrowych. Nadal go nie mamy, nie ma nawet pomysłu, jaki urząd ma się tym zajmować. Powinniśmy ustalić konkretne zasady, jeszcze zanim te systemy zostaną zbudowane. Inaczej skończy się jak z artystami.

Chodzi o to, że bazy danych, na których wytrenowano modele sztucznej inteligencji, zawierały miliony prac objętych prawami autorskimi?

I teraz w Stanach są o to pozwy, bo autorzy prac nie dostali z tego ani dolara. Mogą dopraszać się jakiegoś odszkodowania, ale moim zdaniem uczciwy wyrok byłby taki, że cały model powinien zostać objęty kolektywną reprezentacją.

Coś jak ZAiKS, ale dla AI?

Jeszcze inaczej – artyści powinni założyć spółdzielnię, której członkami byliby wszyscy, których prace zostały wykorzystane w trenowaniu modelu. Model przeszedłby na jej własność, a firma korzystająca nieuczciwie z ich pracy zostałaby puszczona z torbami. Znów powtarza się sytuacja, że ktoś przychodzi, zagrabia sobie pracę innych, czerpie z tego korzyści, a reszta może tylko płakać pod drzwiami. ©℗

Jan J. Zygmuntowski ekonomista, współprzewodniczący Polskiej Sieci Ekonomii i dyrektor programowy CoopTech Hub, autor książki „Kapitalizm sieci”. Wykłada na Akademii Leona Koźmińskiego w Warszawie