W przyszłym roku stuknie 10 lat, odkąd filozof Nick Bostrom sformułował jedną z najsłynniejszych przepowiedni dotyczących rozwoju sztucznej inteligencji. Szwed z Uniwersytetu Oksfordzkiego w głośnym tekście z 2014 r. pisał mniej więcej tak: wyobraźmy sobie, iż człowiek tworzy superinteligentną AI, której jedynym celem jest tworzenie spinaczy do papieru. Nic więcej.

Superinteligentna AI ochoczo przystępuje do działania. Błyskawicznie wykorzystuje wszystkie najprostsze sposoby i zasoby do zrobienia spinaczy. Szuka więc nowych. Odpowiednio przepisując pierwotny program (będzie potrafiła to robić), nasza AI ewoluuje. Jest superinteligentna, więc jeżeli istnieje sposób na zrobienie z czegoś spinacza biurowego, to ona ten sposób znajdzie.

Dość szybko okazuje się, że mamy do czynienia z sytuacją rodem z przerażającej kreskówki. Góra spinaczy rośnie i rośnie, a AI zaczyna niszczyć wszystko wokoło. Odłącza osiedla i szpitale od prądu, bo musi mieć energię do realizacji celu. Zabiera materiały potrzebne do rozwoju innych gałęzi gospodarki, bo liczy się tylko budowa spinaczy. I tak dalej.

Oczywiście – snuje opowieść Bostrom – po pewnym czasie zapada decyzja, by taką AI wyłączyć. Nikt przecież nie chce, by nasz świat zginął pod spinaczami. Ale tu czeka nas przykra niespodzianka. AI jest superinteligentna i dawno już przewidziała, że ktoś będzie próbował ją wyłączyć. Idzie więc na bezlitosną wojnę z ludzkością. Eskalacja konfliktu jest nieuchronna. Sprawę kończy jakiś rodzaj katastrofy nuklearnej, po której z naszej cywilizacji zostają zgliszcza. A wszystko przez spinacze biurowe.

Przepowiednia Bostroma bywa ostatnio często przypominana. Zwłaszcza teraz, gdy od miesięcy mamy modę na sztuczną inteligencję. Temat wywołała popularyzacja inteligentnych algorytmów w stylu ChatGPT, ale także dość poruszające wystąpienia Geoffreya Everesta Hintona. Chodzi o faceta, który przez wiele lat pracował nad rozwojem sztucznej inteligencji dla Google’a. A niedawno, w maju, zrezygnował z roboty, by – jak sam twierdzi – bić na alarm, że AI trzeba poddać regulacji, zanim będzie za późno.

Przy tej okazji przypomnieć warto jeszcze jeden – trochę mniej znany i nieco nowszy – tekst na ten sam temat. Jego autorem jest ekonomista Joshua Gans z Uniwersytetu w Toronto. Opisał on model samoregulacji sztucznej inteligencji. Idzie to mniej więcej tak: jeżeli superinteligentna AI faktycznie będzie taka super, to trudno sobie wyobrazić, by brak jej było świadomości konsekwencji własnych działań. To będzie sytuacja podobna do problemu, przed którym stoją dziś ludzie patrzący na rozwój sztucznej inteligencji i myślący: trzeba zatrzymać to szaleństwo, zanim będzie za późno. Jeśli więc AI faktycznie będzie superinteligentna, to musi wiedzieć, że każda jej kolejna ewolucja przybliża ją do scenariusza wielkiej apokalipsy. Albo do wojen domowych pomiędzy starszymi wersjami AI, które chcą wyłączyć nowsze, które z kolei robią wszystko, by nie dać się „uśmiercić”. Aby temu zapobiec, sama AI wychodzi dość szybko z samoregulacją. Ograniczeniem, które nie pozwoli jej zamienić wszystkiego w jeden wielki spinacz biurowy.

To szansa dla ludzkości. Sprawę można oczywiście załatwić dużo prościej. I już dziś spowolnić, opodatkować i mocno uregulować sztuczną inteligencję. Tak jak postulują wspomniany Geoffrey E. Hinton i wielu innych. ©Ⓟ