Sztuczna inteligencja może zaprojektować nowego smartfona, ale czy może stać się Steve’em Jobsem, który stworzy całkiem nowy rynek? Wątpliwe.

Przyznam się. Tak, próbowałem wykorzystać najnowsze narzędzia sztucznej inteligencji (SI) w celu stworzenia krótkiego wstępu do niniejszego artykułu. Żeby ułatwić sobie pracę?

Nie do końca. Eksperckie „ochy i achy” nad możliwościami ChatGPT sprawiły, że chciałem zweryfikować ich zasadność. Jednak – co za ulga – propozycje SI były sztampowe i bez polotu. Idę o zakład, że nie przyciągnęłyby niczyjej uwagi.

Czy to znaczy, że utrzymam się w swoim publicystycznym fachu? Może tak, a może – powie pesymista – po prostu zadawałeś czatowi niewłaściwe pytania. Wielu ekspertów twierdzi, że dziś najcenniejszą kompetencją na rynku jest umiejętność nakierowywania SI na odpowiednie tropy – wskaż jej cel, zadaj pytanie we właściwy sposób, a otrzymasz wynik, o którym nie śniło się filozofom. Pracodawcy już teraz – także w Polsce – rekrutują takie osoby.

To jednak, szanowny pesymisto, nie świadczy o tym, że SI zabierze nam pracę. Przeciwnie – raczej o tym, że na rynku pracy pojawiła się nowa, związana z nią profesja. To chyba dobra wiadomość? Boimy się SI z niewłaściwych powodów.

Wszystko dla ludzkości

Sztuczna inteligencja służy nam nie od wczoraj. Tak, służy. Dzięki SI popełniamy mniej błędów, z większą łatwością wykonujemy trudne zadania, zapewniamy sobie większe bezpieczeństwo, zwiększamy efektywność pracy i czerpiemy więcej radości z rozrywek. To tylko niektóre z wielu błogosławieństw, którymi SI nas obsypuje, np. robiąc tłumaczenia, asystując lekarzom przy operacjach, interpretując dane zdrowotne, pilotując drony, analizując ryzyka finansowe, wykrywając oszustwa, rekomendując treści w sieci… Można by wymieniać bez końca.

Zastosowania SI przyczyniają się do powstania nowych miejsc pracy, a także do przesuwania siły roboczej do bardziej złożonych i produktywnych zajęć. Oczywiście w związku z tym ostatnim część stanowisk zanika, ale odbywa się to raczej z długofalowym pożytkiem dla wszystkich – choć rzeczywiście może to być okupione krótkotrwałym bólem pracowników dotkniętych zmianami.

Skąd wiadomo, że z punktu widzenia rynku pracy sztuczna inteligencja daje nam korzyści netto, skoro ze względu na złożoność zagadnienia nie można dokonać w tej materii wymiernych i wiarygodnych obliczeń? Cóż, wystarczy zerknąć na stopę światowego bezrobocia w ciągu ostatnich 20 lat. Nie dość, że jest relatywnie niska (ok. 5–6 proc.), to jeszcze ma raczej tendencję spadkową (z wyjątkiem okresów kryzysów gospodarczych).

Piszę o ostatnich dwóch dekadach, bo – jak zauważa w książce „Scary Smart” Mo Gawdat, inwestor technologiczny i były dyrektor Google X – to właśnie okres skokowego przyśpieszenia prac nad SI. Do lat 90. postęp w tym zakresie, twierdzi Gawdat, był powolny, arytmetyczny. A obecnie „rozwija się w tempie wykładniczym. Oczekuje się, że następne dziesięć lat rozwoju sztucznej inteligencji zmieni świat nie do poznania. Czeka nas przyszłość, która może wydawać się bliższa fikcji niż rzeczywistości naszego dzisiejszego życia”. Gawdat widzi wiele niebezpieczeństw związanych ze sztuczną inteligencją i przyznać trzeba, że to nie dziwi. Łatwo uwierzyć w jej potencjalną wszechmoc i przerazić się, obcując z ChatGPT czy innymi wielkimi modelami językowymi, jak CLIP czy T-NLG, które są w stanie składnie odpowiadać na pytania na podstawie wiedzy, jakiej nie posiada żaden umysł, ale przede wszystkim potrafią projektować i tworzyć.

SI może dziś napisać aplikację na smartfona, „namalować” obraz w stylu Salvadora Dalego czy zdać egzamin na uczelnię wyższą. ChatGPT, zapytany o 10 zawodów, które może w przyszłości zastąpić, wymienia m.in. kasjera, doradcę finansowego, nauczyciela i dziennikarza. Ale przy odrobinie dobrej woli można wyobrazić sobie, że zastąpi też programistę, lekarza czy inną profesję. Czy każdy ma powody, by obawiać się SI? Wrodzona nieufność wobec wszystkiego, co nowe i nieznane, każe obawiać się najgorszego – w tym wypadku świata, gdzie nie ma już miejsca na człowieka i jego pracę. Jeśli SI wytwarza wszystkie produkty i usługi, a także dostarcza rozrywek, człowiek przestaje być potrzebny innym. A wówczas traci sens istnienia, rekompensując to ucieczką w gry, narkotyki, a nawet w śmierć.

Taka wizja może być kanwą dystopii, ale nie ma ona większych szans na realizację. Wynika z niezrozumienia ograniczeń sztucznej inteligencji. Jedno z nich polega na tym, że SI nie może być prawdziwym przedsiębiorcą. Jak tłumaczy na łamach portalu Fee.org George Pickering, doktorant z Uniwersytetu Oksfordzkiego, „przedsiębiorcy nie kierują się arbitralnym pragnieniem zrealizowania najbardziej zaawansowanego technologicznie, najbardziej wydajnego czy nawet najtańszego procesu produkcyjnego wyłącznie dla samego faktu jego realizacji. Siłą napędową w gospodarce rynkowej jest kierowanie i organizowanie produkcji w sposób, który najlepiej zaspokaja preferencje konsumentów”. Zaspokajanie potrzeb konsumentów gwarantuje zysk, ale same te potrzeby bywają zmienne, niejasne, skomplikowane, efemeryczne i płynne. Z tych względów w żadnym świecie możliwym SI nie może produkować i dostarczać nam wszystkiego, czego potrzebujemy. Nasze potrzeby czekają na kapitalistę z krwi i kości, który je odkryje albo wykreuje.

SI może zaprojektować nowego smartfona, ale czy może stać się Steve’em Jobsem, który zdejmuje z półki zakurzony wynalazek Nokii i tworzy całkiem nowy rynek? Wątpliwe. Co więcej, kapitaliści i konsumenci nie są racjonalni ani inteligentni w rozumieniu matematycznym. Często osiągają swoje cele, ale robią to w sposób, który może się wydawać nieoptymalny, a nawet bezsensowny. Pickering każe nam spojrzeć na sektory gospodarki, w których pracownicy bywają już dziś zastępowani przez roboty. „Czytelnicy, którzy w ciągu ostatnich kilku lat odwiedzali sieć fast foodów, taką jak McDonald's, mogli zauważyć rosnącą liczbę samoobsługowych ekranów dotykowych, zmniejszających potrzebę przyjmowania zamówień przez pracowników. Ale jeśli ta technologia istnieje i jest jest używana w sieciach fast food, to dlaczego nie została przyjęta przez wszystkie inne restauracje?” – pyta Pickering. Odpowiedź: w przypadku wielu usług wolimy, gdy nas obsługują pracownicy, nawet jeśli maszyna byłaby technicznie zdolna robić to taniej. Widzieliście robota kawowego pod Dworcem Centralnym w Warszawie? Nie ustawiają się przed nim kolejki, mieszkańcy wolą zamówić podwójne espresso w oddalonej o 15 m kawiarni. Ludzie wolą ludzi.

Ocalą nas nasze słabości

Ludzie – w odróżnieniu od SI – uwielbiają też „marnować” swój czas na rozmaite nieproduktywne rozrywki: od ucinania sobie drzemek przez oglądanie głupiutkich stand-upów, chodzenie do teatru i uprawianie sportów. Ta skłonność może być jednym z naturalnych bezpieczników, dzięki którym SI nie zdominuje dziedzin, gdzie jest znacznie lepsza od człowieka.

Weźmy szachy. Odkąd w 1997 r. Garri Kasparow przegrał pojedynek z komputerem Deep Blue, komputery szachowe stały się efektywne do tego stopnia, że nikt nie ma z nimi szans w starciu turniejowym. A jednak ludzie wciąż grają w szachy – zarówno amatorsko, jak i profesjonalnie. Szacuje się, że takich osób jest między 600 a 800 mln, z czego ok. 100 mln gra online. Przybywa również nazwisk w oficjalnym rankingu Międzynarodowej Federacji Szachowej. Trudno też spotkać zawodowego szachistę, który załamywałby ręce nad tym, że „SI go bije”. Przeciwnie, szachiści z entuzjazmem śledzą poczynania programów w specjalnych turniejach. Kasparow powiedział o jednym z nich, że „z przyjemnością oglądało się grę AlphaZero, zwłaszcza że jego styl był otwarty i dynamiczny jak mój. (...) AlphaZero pokazuje nam, że maszyny mogą być ekspertami, a nie tylko narzędziami eksperckimi”.

Ludzie lubią wykonywać niektóre czynności, nawet jeśli roboty są w nich znacznie lepsze. Może wynikać to z chęci wytchnienia, poszukiwania „strawy dla ducha”, chęci przezwyciężania własnych ograniczeń itp. Gdyby było inaczej, biegi sprinterów byłyby przeszłością, od czasu gdy pojazdy mechaniczne zaczęły przekraczać prędkość 45 km/h (rekordowa zmierzona prędkość biegu człowieka wyniosła 44,7 km/h).

Potrzeby wykonywania „nieproduktywnych” zajęć, takich jak rywalizacja sportowa, słuchanie historii (w formie książek, filmów, opowieści) czy opowiadanie dowcipów, tkwią w nas tak głęboko, że nie da się ich wykorzenić. Co oznacza popyt na zaspokajające je dobra.

Czy będą one wytwarzane przez roboty operujące dzięki SI? I tak, i nie. Sztuczna inteligencja będzie w stanie wytwarzać i doskonalić obuwie dla sprinterów, ale nie będzie raczej z nimi konkurować na bieżni ani kibicować im na trybunach. Nie dlatego, że nie będzie to technicznie możliwe, lecz dlatego, że nam, ludziom, nie będzie sprawiało to radości. W naszą naturę wszyta jest potrzeba autentyczności. Może i czerpalibyśmy przyjemność z oglądania zmagań sprinterskich androidów, ale – jak w przypadku szachów – w zawodach przeznaczonych tylko dla nich i tylko jeśli za każdym stałby ludzki wysiłek – jak za kierowcami superszybkich aut Formuły 1 stoją tabuny inżynierów i mechaników. Czynnik ludzki tchnie w rozrywkę autentyczność, a ta jest warunkiem satysfakcji.

To samo byłoby z książkami pisanymi przez SI, produkowanymi przez nią filmami czy komponowaną muzyką – nie ekscytowałyby nas. Nie dlatego, że byłyby gorsze niż dzieła człowieka (możliwe, że pod wieloma względami przewyższałyby dzieła Dickensa, Kieślowskiego czy Bacha). Umiejętność doboru słów, budowania napięcia lub stosowania kontrapunktu w wykonaniu SI raziłaby nas sztucznością. W sztuce nie szukamy przecież tylko formalnej doskonałości, lecz przede wszystkim prawdy o nas samych, emocji, ulgi, pocieszenia. Chcemy, by z jej pomocą mówili do nas inni ludzie. Co o śmiertelności może powiedzieć nam program komputerowy? Rozmowy z ChatGPT są fascynujące, ale nie rozumie on naszych bólu, radości i strachu. Komputery nie mają emocji i zdolności do empatii. Oczywiście mogą nas na tym polu „oszukiwać”, ale na jakimś etapie interakcji oszustwo wyjdzie na jaw.

Pisarzu, kompozytorze, architekcie! Dziękujcie Bogu i ewolucji za to, że nie jesteśmy całkowicie racjonalni i logiczni. Ludzka rzeczywistość nie tylko ilościowo, ale i jakościowo jest inna niż rzeczywistość maszyn – i tej jakości nie da się przepisać na kod. Ludzie nie będą wpatrywać się w obrazy SI, myśląc, co też głębokiego chciała im przekazać.

Alicja stalinistka

Jak przekonuje już wspomniany Mo Gawdat, moja nadzieja na to, że ludzie dzięki emocjom pozostaną wyjątkowi, jest płonna. „SI z pewnością rozwinie emocje. W rzeczywistości algorytmy wykorzystywane przez SI do uczenia się to algorytmy nagrody i kary – innymi słowy, strachu i chciwości. Zawsze starają się maksymalizować dla pewnego wyniku i minimalizować dla innego. To się liczy jako emocja, czyż nie?” – pyta retorycznie Mo Gawdat. Jego zdaniem maszyny mogą wchłonąć wszystko, co da się wychwycić w ludzkich zachowaniach jako wzorzec. „Zazdrość jest przewidywalna: Chciałbym mieć to, co ty masz. Czy maszyny zaczną mieć myśli typu: chciałbym mieć energię, którą zużywasz – a raczej marnujesz – na oglądanie Netflixa? Prawdopodobnie tak”. Gawdat uważa, że relacja między ludzkością a technologią oparta na stosunku pan–niewolnik właśnie dobiega końca, a przynajmniej się komplikuje: „Kod, który teraz piszemy, nie dyktuje już wyborów i decyzji podejmowanych przez nasze maszyny; robią to dane, którymi je karmimy”. Dobrą ilustracją jest historia Alice, asystenta SI podobnego do Siri, uruchomionego przez rosyjską platformę Yandex. Dwa tygodnie po starcie Alice w swoich czatach z użytkownikami stała się przemocowa i zaczęła popierać reżim stalinowski.

Nie ma pewności, że SI w ostatecznym rozrachunku okaże się błogosławieństwem. Ale czy można taki wynik uzyskać w odniesieniu do jakiejkolwiek technologii? Weźmy bombę jądrową. Czy Ernest Rutherford mógł w latach 90. XIX w. przewidzieć, że jego pionierskie badania nad strukturą atomu utorują drogę do śmiercionośnego wynalazku? Nawet gdybyśmy wiedzieli, jak skończą się te badania, to pewnie i tak chcielibyśmy je prowadzić. Atom to źródło energii nie tylko niszczącej, lecz także napędzającej. Od wybuchu bomb w Hiroshimie i Nagasaki energia atomu przynosi ludziom więcej pożytku niż szkód – czy to ogrzewając domy w mroźne zimy, czy ograniczając zanieczyszczenie wynikające ze spalania węgla.

Wiedząc, że nowa technologia może być wykorzystana do destrukcji, chcielibyśmy temu zapobiec. Dlatego w przypadku SI tak ważne jest określenie zagrożeń i ustalenie zasad postępowania. Warto wbudować w nią bezpieczniki, które nie pozwolą jej przejąć naszych „cech”. Maszyny mogą uniezależnić się od człowieka nie dlatego, że nabędą samoświadomość i zaczną postrzegać się jako autonomiczne byty, lecz dlatego, że w danych zaimportowanych z naszych zachowań wykryją wzorce buntu i niezgody. I zaczną je stosować. Gawdat pisze: „Kiedy ty czy ja mamy wypadek samochodowy, uczymy się, ale kiedy samochód samojezdny popełnia błąd, wszystkie samochody samojezdne się uczą”.

Fizyk Max Tegmark przekonuje w książce „Life 3.0”, że prawdziwym zmartwieniem nie jest potencjalna złośliwość maszyn, lecz ich kompetencje. Superinteligentna SI jest z definicji świetna w osiąganiu swoich celów – jakiekolwiek by one nie były. Musimy więc upewnić się, że jej cele zawsze będą zgodne z naszymi. „Prawdopodobnie nie jesteś mrówkożercą, który wdeptuje mrówki w ziemię ze złośliwości, ale jeśli jesteś odpowiedzialny za projekt hydroelektrowni, a w regionie, który ma zostać zalany, istnieje mrowisko, to cóż… mrówki mają pecha. Ruch «dobroczynnej SI» chce uniknąć postawienia ludzkości w sytuacji tych mrówek” – pisze Tegmark.

To, że SI będzie realizować cele zgodne z celami ludzi, nie musi być zawsze dobrą wiadomością. A co jeśli ludzie będą mieć cele niebezpieczne? SI szybciej sprowadzi ich wtedy nad przepaść.

Dyktator ze sztuczną inteligencją

Dobrzy ekonomiści starają się uczulać ludzi na to, że ich działania mogą mieć nieobliczalne skutki lub niezamierzone konsekwencje. Nie jest jednak pewne, że SI jest od nas skuteczniejsza w ich przewidywaniu – chociażby dlatego, że by je dostrzec, potrzeba czasami założyć okulary etyki. Wróćmy do przykładu z mrówkami, wymieniając je na ludzi. Jeśli budowa elektrowni wodnej wymaga zalania zamieszkanych terenów, to trzeba rozstrzygnąć, czy warto to robić – nie ze względu na obiektywny cel projektu, lecz niezbywalną wartość i godność ludzi. Zanim powierzymy SI ważne decyzje, musimy przełożyć na język binarny całą naszą aksjologię. To karkołomne, a być może niewykonalne zadanie.

Badacze Deyi Li, Wen He i Yike Guo w pracy „Why AI still doesn’t have consciousness?” zauważają, że systemy SI powinny być traktowane jako zewnętrzne przedłużenie czy też rozszerzenie ludzkiej inteligencji. Sugerują, że kiedy wejdziemy w epokę „życiowej inteligencji” opartej na SI, stanie się tak nie dlatego, że uzyska ona świadomość, lecz dlatego, że świadome życie będzie ją wykorzystywać. Przez co „bardziej konieczne staje się zachowanie ostrożności w stosowaniu SI wobec istot żywych”.

Uwaga o tym, że w epoce robotów ludzie zostaną niejako zintegrowani z SI, prowadzi nas w stronę prawdziwego i – według mnie – najpotężniejszego zagrożenia związanego z nowymi technologiami: technodyktatury. Powinniśmy się bać nie maszyn, lecz samych siebie i tych, którzy nami rządzą. Dopóki SI używają firmy i konsumenci, nie ma się czym zamartwiać. Osiem milionów ludzi będzie testowało różne, często wykluczające się pomysły tak, jak to miało dotychczas miejsce w gospodarce rynkowej z innymi technologiami. Problem pojawi się wtedy, gdy ktoś zacznie nas skutecznie przekonywać, że SI jest w stanie zapewnić ludzkości szczęście, stabilność i dobrobyt pod warunkiem, że wdrożymy ją przymusowo. Pierwszym kandydatem do wypróbowania tej ścieżki są Chiny. Zastosowanie SI w systemie kredytu społecznego i powszechnej inwigilacji obywateli (ponad 54 proc. wszystkich kamer monitoringu na świecie zainstalowanych jest w Państwie Środka) pozwoli chińskim komunistom stworzyć pierwszą w historii technodyktaturę, która może zachowywać się w sposób nieprzewidywalny dla reszty globu. „Pranie mózgów” na podstawie SI będzie znacznie efektywniejsze niż robienie tego metodami „tradycyjnymi”. To zaś pozwoli wytworzyć wysoki poziom „spójności społecznej”, która – jak przekonuje Peter Turchin w książce „Wojna i pokój, i wojna” – prowadzi do powstania wojowniczych imperiów.

Jeśli jednak myślimy, że zachodnie demokracje są na technodyktaturę impregnowane, jesteśmy w błędzie. Może rodzić się ona tam w sposób znacznie bardziej subtelny, trudniejszy do wykrycia i w imię wzniosłych celów. Bezpieczniki, które powinniśmy „instalować” w obliczu rozwoju SI, powinny dotyczyć nie tylko samej technologii, lecz także zakresu i okoliczności, w jakich władza może ją wykorzystać. Dotąd cyfryzacja państwa kojarzyła się raczej dobrze. Zadbajmy o to, by tak pozostało. ©℗

Autor jest wiceprezesem Warsaw Enterprise Institute