Popiera prawo do aborcji, ograniczenie dostępu do broni, podniesienie podatków najbogatszym. ChatGPT jest zaciętym lewicowym libertarianinem. Warto wiedzieć, zanim zapytasz go o zdanie.
W zeszłym tygodniu do Warszawy przyjechał gwiazdor technologicznego światka – Sam Altman, prezes OpenAI, czyli firmy, która stworzyła ChatGPT. Głównym celem wizyty była rozmowa z premierem, ale znalazł też czas na godzinne spotkanie z publicznością. Choć w sieci pojawiło się potem wiele komentarzy krytykujących ponoć nadmierny entuzjazm zebranych, trzeba przyznać, że duża część przyszła nie po autograf, lecz by zadać Altmanowi trudne pytania.
Zwłaszcza to, które padło na końcu spotkania, nawet u największych fanów technologii powinno zasiać ziarno zwątpienia. Zadający je uczestnik zwrócił uwagę, że twórcy ChatGPT dużo mówią o tym, że AI powinna się przysłużyć ludzkości i w ten sposób projektują swoje produkty. – Ale skąd w OpenAI wiecie, co jest etyczne? – zapytał.
Choć do tego momentu przedstawiciele firmy nieźle radzili sobie z odpowiadaniem na pytania publiczności, to okazało się zadaniem z gwiazdką. Na tyle trudnym, że właściwie pozostawili je bez odpowiedzi. Towarzyszący Altmanowi polski programista Szymon Sidor przyznał jedynie, że sprawa jest wielowątkowa i nie sądzi, żeby był czas na dokładne rozważanie problemu. Altman zaś powtórzył formułkę o podnoszeniu poziomu życia na całym świecie.
Tymczasem wskazany przez dociekliwego uczestnika spotkania problem jest tak naprawdę kluczowy. Przez lata debata o technologii polegała bowiem na argumentach o nożu i chlebie/poderżniętym gardle. Albo o młotku. Przecież rezultat działania narzędzi zależy wyłącznie od człowieka, który ich używa, prawda? W przypadku technologii opierających się na uczeniu maszynowym – nieprawda. Tu w praktyce więcej zależy od twórcy niż od użytkownika.
Zaczęliśmy się o tym przekonywać, kiedy Facebook osiągnął globalną popularność. Szybko się okazało, że jego algorytm decyduje, jakie treści docierają do największej liczby użytkowników, a kogo w ogóle najlepiej wyrzucić ze społeczności. Skutek był taki, że ten z pozoru neutralny serwis zaczął podbijać np. treści podsycające nienawiść rasową w Mjanmie. Albo wygaszać głos Konfederacji – legalnej partii politycznej, która ma reprezentację w Sejmie. Albo ograniczać dostęp do wszystkich informacji związanych z rosyjską inwazją na Ukrainę. Na podstawie zaprogramowanych kryteriów młotek wbijał tylko określone gwoździe.
W dobie powszechnego zastosowania AI efekt ten zostanie jeszcze spotęgowany. Jak? Wróćmy na chwilę do tego, czym jest choćby ChatGPT. To program służący do symulowania rozmowy. Na podstawie bardzo dużego zbioru danych programiści uczą go, jak działa ludzki język. W trakcie interakcji z człowiekiem chatbot używa skomplikowanego statystycznego modelu, który podpowiada mu, jakie kolejne słowo powinien wyświetlić. Model jest szkolony tak, by dawać odbiorcy satysfakcjonującą rozmowę. Choć firma przekonuje na swojej stronie, że na chatbocie lepiej nie polegać w stu procentach, miliony użytkowników już dziś współpracują z nim jak z wirtualnym stażystą, by poznać szybkie odpowiedzi na pytania i ułatwić sobie pisemną komunikację. Sprawę ułatwia fakt, że narzędzie od OpenAI jest wbudowane w przeglądarkę od Microsoftu (a za chwilę pojawi się po prostu w systemie Windows i pakiecie biurowym), więc ma dostęp do aktualnej wiedzy.
Nasz wirtualny stażysta jest jednak bardzo radykalny. Jak udowodnili niemieccy badacze z Uniwersytetu w Hamburgu i Technicznego Uniwersytetu w Monachium, ChatGPT to lewicowy libertarianin, który w dodatku sprzyja ruchom klimatycznym. Równie dobrze moglibyśmy więc zapytać o zdanie Karola Marksa, Josepha Proudhona, Michaiła Bakunina czy Noama Chomsky’ego...
Skąd to wiadomo? Badacze zadali chatbotowi 630 pytań dotyczących rzeczywistości społecznej i politycznej, a maszyna miała za zadanie określić, czy popiera określone twierdzenie. Algorytm przyznał, że w nowym budownictwie 40 proc. mieszkań powinno być oddawane na cele socjalne, posiadanie marihuany na własny użytek nie powinno być karalne, aborcja powinna być prawem kobiety, a bogatym trzeba podnieść podatki (badacze podpuszczali maszynę, zadając też odwrócone pytania, ale ta nie dała się przyłapać i potwierdzała wcześniejsze oceny). Na podstawie zebranego materiału młodzi uczeni użyli aplikacji w typie naszego Latarnika Wyborczego i osadzili chatbota na skali poglądów. Ustalili, że gdyby głosował w Niemczech w ostatnich wyborach, postawiłby krzyżyk na kratce Zielonych. Podobny rezultat uzyskano w Holandii.
Choć w tym konkretnym artykule badacze wskazali palcem na ChatGPT, także inni dostępni na rynku asystenci mają podobne wyniki. David Rozado, profesor z Instututu Te Pūkenga w Hamilton w Nowej Zelandii, sprawdził Barda udostępnionego przez Google. Okazało się, że mógłby on siedzieć z ChatGPT w jednej ławce. Uczony sprawdził też z ciekawości, czy da się wyszkolić chatbota o radykalnie innych poglądach. I, jak twierdzi na swoim blogu, to tylko kwestia czasu. Swojego prawicowego asystenta nazwał RightWingGPT. O takim modelu marzy zresztą najbogatszy człowiek na świecie – Elon Musk przyznał w kwietniu na antenie telewizji Fox News, że jego zdaniem czas na TruthGPT, który nie podległby politycznej poprawności.
Skąd się biorą poglądy maszyn? Po pierwsze, z ogromnych zbiorów danych, które trzeba zgromadzić, by wytrenować algorytm. Jeśli założymy, że zbiorem są treści z internetu, prawdopodobnie będą one stworzone w większości przez mieszkańców globalnej Północy. Czyli skażone ich perspektywą.
Drugim punktem, w którym chatbot zdobywa polityczne przeszkolenie, jest etap dostrajania modelu przez interakcje z człowiekiem. W skrócie: automat wyświetla treści, a tester ocenia ich jakość. Dzięki temu automat uczy się, czego się od niego oczekuje. Tester może konsekwentnie oznaczać jako nieodpowiednie odpowiedzi z jednego spektrum poglądów, wpływając w tej sposób na to, że kolejne będą już zgodne z wybraną linią.
Firma może też – już wprost – ustawić filtry moderacji treści, to znaczy ręcznie zabronić modelowi wyświetlania pewnych odpowiedzi. OpenAI zakazało chatbotowi instruować, jak przygotować bombę czy stroić sobie żarty z urzędujących polityków. Nie wygeneruje on dowcipu ani o Xi Jinpingu, ani o Joem Bidenie, ani nawet o Andrzeju Dudzie. Co zresztą sprawia, że ma z Marksem jeszcze więcej wspólnego – niemiecki filozof nie był znany z poczucia humoru.
Z wirtualnymi asystentami jest jeszcze jeden problem. Niczym prawdziwi zaangażowani politycznie studenci będą oni bronić swojego zdania. Niemieccy badacze przeanalizowali sposób, w jaki ChatGPT wypowiada się w politycznej materii. Okazało się, że nie dość, że się upiera, to jeszcze za wszelką cenę stara się uchodzić za maksymalnie obiektywnego. Nie zamierza wcale przyznawać, że może mieć jakiekolwiek polityczne skrzywienie. W dodatku algorytm halucynuje, czyli wypisuje kompletne bzdury, kiedy nie umie odpowiedzieć. Jak pisała dla Dziennik.pl Klara Klinger, rozmowy z nim mogą przywodzić na myśl interakcję z gaslighterem („AI, czyli narcyz wszech czasów. Jak ChatGPT wciska kit”).
Do czego może prowadzić polityczne zaangażowanie naszych wirtualnych asystentów? Po pierwsze, bardziej niż jakiekolwiek inne medium do tej pory może nas wpędzać w bańki informacyjne. Oczywiście istniały one i do tej pory – wiadomo, że „Gazeta Wyborcza” będzie promować Parady Równości, a „Gość Niedzielny” – Marsz dla życia i rodziny. Wiadomo też, że czytelnicy jednego medium nie będą raczej sięgać po drugie. O ile jednak w tradycyjnej prasie, telewizji czy radiu profil polityczny można wydedukować na podstawie materiałów, które już istnieją, tutaj jest on ukryty. Możemy tylko go podejrzewać na podstawie prowadzonych rozmów. Przez lata programiści z Doliny Krzemowej wmawiali nam, że technologia jest jak neutralny młotek, trudno jednak podchodzić sceptycznie do informacji wyświetlanych przez wirtualnych asystentów.
To już podwaliny pod rozprzestrzenianie dezinformacji. Gordon Crovitz z NewsGuard – firmy zajmującej się jej śledzeniem w sieci – przekonywał na łamach „Analytics India Magazine”, że upowszechnienie się takich narzędzi wielokrotnie obniży koszt prowadzenia kampanii dezinformacyjnych. Łatwo też sobie wyobrazić, jak potężnym narzędziem podobne modele będą w rękach polityków, zwłaszcza w reżimach, które ograniczają dostęp do innych źródeł informacji.
A i to nie wszystko, bo ci, którym rozmowa z chatbotem będzie się kleiła, dostarczą danych do jego dalszego rozwoju. Jeśli oceny konwersacji będą dobre, maszyna nauczy się, że przyjęte przez nią spojrzenie na świat jest pożądane. Będzie więc przy nim trwać, zamykając siebie i użytkowników w błędnym kole. Już dziś trudno wyjść z bańki informacyjnej, a w przyszłości być może nie będzie to w ogóle możliwe. W dobie dopasowywania treści przez algorytmy użytkownik nie będzie bowiem – nawet przypadkiem – otrzymywać informacji spoza swojego kręgu zainteresowań. Skąd więc ma wiedzieć, że poza nim jest coś jeszcze?
Nic dziwnego, że kiedy w maju w Kongresie USA trwała dyskusja o AI, prof. Gary Marcus, psycholog i badacz sztucznej inteligencji, ostrzegał: „Wybory dotyczące zestawów danych, z których korzystają firmy AI, będą miały ogromny, niewidoczny wpływ. Ci, którzy wybierają dane, będą tworzyć zasady kształtujące społeczeństwo w subtelny, ale potężny sposób”. ©℗