Wcale nie jest takie oczywiste, w którą stronę pójdzie rozwój sztucznej inteligencji. Pewne jest jedno: lepiej zająć się faktycznymi problemami, niż szykować się na armagedon.
Jeszcze niedawno mieliśmy się bać terrorystów, potem kryzysów ekonomicznych i globalnego ocieplenia. Następnie pandemii, a ostatnio także detonacji broni jądrowej. Do tej listy – jako kolejna szansa na zagładę ludzkości – dołączyła sztuczna inteligencja.
Panikę sieją politycy, analitycy, dziennikarze, ale także osoby związane z dużymi firmami technologicznymi, wróżbici, różnego pokroju eksperci. Postęp technologii AI jest widoczny dla każdego dzięki ChatGPT. Każdy na świecie może wpisać tekst i dostać odpowiedź tekstową. Inne modele oferują wytwory graficzne. Stworzono też film reklamę, czysto syntetycznie, bez udziału aktorów, choć przedstawia on ludzi (nieprawdziwych). To robi wrażenie. Nowo powołany francuski start-up AI zdobył ponad stumilionowe dofinansowanie w mniej niż tydzień. Co akurat zrozumiałe: stworzyli go byli pracownicy firm rozwijających AI. Takich ludzi jest niewielu i niekoniecznie są rutynowo kształceni na uniwersytetach, nawet jeśli za chwilę polskie uczelnie zechcą wskoczyć do wagoniku AI i powołają setki nowych specjalności, tak jak to było z marketingiem i zarządzaniem, dziennikarstwem, a obecnie jest z cyberbezpieczeństwem.
Postęp od 2017 r. jest ogromny i idą za nim pieniądze – być może odpływające z mniej trafionych trendów. Nowe metody (w rodzaju ChatGPT) generują wartość od początku, natychmiast. Ludzie zwyczajnie ich używają, gdyż usprawnia to pracę. Ale – jak mówią Amerykanie – „hold your horses”, bo warto zachować pewną dozę ostrożności wobec doniesień, ostrzeżeń, wezwań, odezw, dezyderatów itd.
Na początku czerwca „zaniepokojeni” amerykańscy senatorowie wystosowali list do Marka Zuckerberga, szefa Meta, w związku z „wyciekiem” (a faktycznie: celowym udostępnieniem) dużego modelu językowego (LLM). Senatorowie zwracają uwagę na „potencjalne ryzyka” oszustw, naruszeń prywatności itd. Żądają informacji o tym, w jaki sposób „oszacowano ryzyka” związane z publikacją modelu AI/LLM.
W istocie była to rzecz bez precedensu, bo takie twory są w większości przypadków trzymane w sekrecie. Otwarcie ich w ramach podejścia open source (otwartego oprogramowania, kodu źródłowego) dla społeczności przyczynia się do przyspieszenia rozwoju, także oddolnego, przez badaczy i deweloperów z ograniczonymi zdolnościami obliczeniowymi – np. bez setek komputerów obliczeniowych w piwnicy. Tak oto wypuszczono „dżina z butelki”, otwierając wrota do optymalizacji, zmniejszania rozmiaru modeli, które dziś mogą się nie mieścić w pamięci komputera czy smartfona. Dziś podstawowy model open source można stworzyć za kilkaset dolarów. I wciąż w pełni nieznane są możliwości takiej optymalizacji i specjalizacji dla konkretnych dziedzin (np. obsługa klienta, nauki społeczne, cyberbezpieczeństwo). W USA otwieranie kodu źrodłowego i oprogramowania to także kwestia wolności słowa. Jest w gestii jego twórców, co zrobią z własnym oprogramowaniem i kodem źródłowym. I nic do tego ludziom, którzy pragną doszukiwać się ryzyka zagłady ludzkości. Dawniej próbowano ograniczyć np. metody szyfrowania. Jak widać, na niewiele się to zdało, bo każdy na świecie ma do nich dostęp.
Powstanie i wydajność modeli LLM opiera się na obserwacji i pewnej dozie przypadkowości. Nie stoi za tym żadna wyszukana teoria, tak naprawdę nie wiemy w pełni, dlaczego nie tylko działają, ale działają tak dobrze. A skoro działają, to po co drążyć temat? Wielkie odkrycie polega na tym, że tysiące lat ewolucji mózgu i rozwoju gatunku homo sapiens, które zaowocowały mądrością, wiedzą, świadomością piękna itd. – da się zmieścić w niewielkim pudełku napędzanym procesorami obliczeniowymi i przetwarzającymi dane. Kolejnym krokiem powinno być umieszczenie tego w urządzeniach typu smartfon czy przeglądarka internetowa. Dzięki wypuszczeniu modelu przez Meta w pewnej mierze już jest to możliwe, co przecina spekulacje różnego rodzaju analityków, że techniki takie są wyłącznie domeną big techów. Bo może nie będą. Nacisk kładę na „może”, bo przewidywanie przyszłości w szybko rozwijających się dziedzinach wymaga naprawdę dobrej jakości szklanej kuli. Moja jest całkiem niezła, ale nie gwarantuję, że w pełni obejmuje całość problematyki. Swoją drogą, ostatnio także Apple wbudowuje w swoje systemy wsparcie od strony „dużych modeli transformatorowych”, unika jednak używanej powszechnie terminologii (nie mówią np. „sztuczna inteligencja”, tylko „uczenie maszynowe”).
Listów wzywających do „ostrożności” było więcej. Był i taki podpisany przez wiele Bardzo Znanych Osób, które wzywały do wstrzymania rozwoju tej technologii. Wśród sygnatariuszy nie było żadnego Polaka, np. Lecha Wałęsy. Podpisał go za to np. Elon Musk. Kilka dni później ogłoszono, że jedna z jego firm chce rozwijać dokładnie te same modele. Powstaje wobec tego uzasadniona wątpliwość, na ile podpisywanie takich listów jest motywowane faktycznymi obawami o przyszłość ludzkości, na ile to autopromocja, a na ile to dobrze rozumiane myślenie biznesowe (zatrzymać rozwój, by móc nadążyć za liderami).
Realnych problemów w związku z technologią AI/LLM jest bez liku. Od bardziej technicznych, jak uczciwość (gdy np. jakaś grupa ludzi może być dyskryminowana ze względu na wiek, gdy AI ocenia CV przy naborze do pracy), przejrzystość (czy wiemy, z kim rozmawiamy – z człowiekiem czy z asystentem, którym ktoś zechciał zastąpić obsługę klienta), przetwarzanie danych osobowych, danych objętych prawami autorskimi, po „następcze” i systematyczne wyzwania społeczno-polityczne, takie jak zmiany na rynku pracy. Ryzyka te są coraz bardziej zrozumiałe i lepiej zbadane. Przykładowo systemy LLM co do zasady mogą wzmacniać obciążenia i uprzedzenia społeczne. Poprawić to trudno, obecnie można jedynie analizować tworzone treści i próbować unikać generowania odpowiedzi w przypadku, gdy „lepiej tego nie robić”.
To wszystko realne, trudne problemy. Jak je rozwiązać? Być może mądrzej o tym nie wspominać? Okazuje się, że doskonale działa stara dobra metoda: zmieniać temat i skupiać się na „ogólnej sztucznej inteligencji” (AGI; silna sztuczna inteligencja o zdolnościach równych ludzkim i wykraczających poza nie, o wszechstronnych zastosowaniach). Można np. skupić się na mówieniu, że np. AI/AGI przejmie władzę nad światem, że doprowadzi do zagłady itd. To np. jedna z metod często dostrzegalna w wypowiedziach Sama Altmana, dyrektora generalnego OpenAI, który w debatach przeznaczał na te właśnie zagadnienia bardzo wiele – zbyt wiele – czasu. W związku z tym być może nie poświęcano tyle uwagi próbom rozwiązania problemów faktycznie istniejących. Chociażby wspomnianych dyskryminacji, uczciwości, przejrzystości, ale i innych.
To także podejście niektórych analityków i ekspertów. Wypowiadanie się w sposób ostry, definitywny (że coś jest nieuniknione, nadejdzie wkrótce itd.). To jedna z metod, by zostać dostrzeżonym, być zapraszanym, by opinie przebiły się do mediów. Mało kto pamięta, że w latach 40. XX w. szacowano, że „samoprowadzące się samochody” powstaną już w latach 60. Jak wskazują w swej pracy Ari Allyn-Feuer i Ted Sanders („Transformative AGI by 2043 is <1% likely”), podobnych przewidywań, które się nie sprawdziły, było wiele, kilkadziesiąt. Jak kres niektórych zawodów, np. medycznych. W 2016 r. radiolodzy mieli zniknąć „za pięć lat”. Być może dlatego brakuje ich dziś w USA (studenci uznali ten zawód za mało perspektywiczny), a AI wcale ich nie zastępuje (dużym problemem jest ryzyko wyniku fałszywie negatywnego, którego nie dostrzega wyuczona na znanych przypadkach maszyna), choć im pomaga.
To bardzo złożone zagadnienia, a gdy ktoś nie ma świadomości ich skomplikowania, łatwo może snuć nierealne przewidywania. Jeśli ten ktoś jest znany, to takie opinie mogą się upowszechnić. Z marnym skutkiem.
Realia są takie, że obecnie rozwijane podejście do AI nie prowadzi do zbudowania AGI „wkrótce”. Nie ma tu prostej ścieżki. Potrzeba kilku przełomów, na wielu obszarach. Przełomów, na które dziś nikt nie ma pomysłu.
Niezbędna jest choćby wydajność sprzętowa. Działanie AGI wymagałoby mocy obliczeniowej o kilka rzędów większej niż dziś dostępna standardowo. Co gorsza, prawo Moore’a (ekonomicznie optymalna liczba tranzystorów w układzie scalonym zwiększa się w kolejnych latach wykładniczo) ledwie zipie. W Chinach działa już ponad 50 modeli LLM, ale już odczuwalne są tam zachodnie sankcje, np. amerykański zakaz eksportu zaawansowanych procesorów Nvidii. Brakuje procesorów, jednostek obliczeniowych FPGA i specjalizowanych ASIC. Duże firmy w rodzaju ByteDance lub Baidu jakoś jeszcze sobie radzą, np. używając starszych technologii, przenosząc (kanibalizacja) brakujące środki z innych działów do tych zajmujących się AI, ale inne z pewnością to odczuwają.
A jak jest w Polsce? Mamy większość energii elektrycznej z węgla i nie ma obecnie możliwości skokowego wzrostu jej produkcji. Jej koszt będzie zatem wysoki, można więc zapomnieć o ogromnym centrum danych, które wykonywałoby bardzo drogie operacje obliczeniowe. Po prostu gdzie indziej może być taniej.
Obecnie dostrzegalne przyspieszenie rozwoju AI opiera się w dużej mierze na tym, że komputery są coraz szybsze. Ale czy ten trend się utrzyma? Gdybyśmy byli w latach 80. XX w., to niewątpliwie odpowiedź byłaby twierdząca. Dziś jednak widzimy końcówkę „prawa Moore’a”, potencjalny kres miniaturyzacji. Dziś tranzystory mają kilka nanometrów. Gdy dojdziemy do ok. 1 nanometra, możliwość kontroli takiego układu może ulec załamaniu, bo znaczenie będą miały wtedy prawa mechaniki kwantowej. W skrócie: taki układ nie będzie się zachowywał przewidywalnie. Bezproblemowego przejścia na tę technologię nie będzie. I albo wymyśli się coś nowego (na razie pomysłów brak), albo wkrótce będziemy mieli nieoczywiste (nieznane nigdy wcześniej) źródło wielkiego kryzysu ekonomicznego.
Po analizie dostępnych informacji Allyn-Feuer i Sanders doszli do wniosku, że ryzyko/szansa powstania silnej AI przed rokiem 2043 wynosi 0,4 proc. Dużo wcześniej namieszać mogą wyposażeni (uzbrojeni) w „aktualnie najlepsze metody AI”… ludzie. I to na tym problemie powinniśmy się skupiać, a nie na powstaniu AGI o „boskich” możliwościach.
Na niektórych może robić wrażenie, że wybrani przedstawiciele branży wprost żądają prawnych regulacji. To mądre posunięcie. Po pierwsze, wezwania do tego i tak by się pojawiły (nie ma wyboru – więc sami o to głośno proszą). Po drugie, po ich stronie zminimalizowałoby to ryzyko ewentualnych pozwów z uwagi na działanie ich systemów. Po trzecie, chociaż wzywają oni do regulacji, to oczywiście chcą mieć na nie wpływ. To zatem nie tak, że tym razem po prostu wspaniałomyślnie oddadzą się pod osąd światowym rządom. „Governance AI” to kwestia podnoszona w agendzie ONZ od wielu lat. Teraz przyspieszy, chociażby za sprawą dwustronnego porozumienia USA–Wielka Brytania, w ramach którego ryzyka AI mają być analizowane. Bardzo wygodnie pomija się przy tym akt o sztucznej inteligencji, którego swoją wersję niedawno przyjął Parlament Europejski.
Pamiętne są zdjęcia premiera Mateusza Morawieckiego z szefem Google'a Sundarem Pichaiem, gdy pili kawę z Orlenu. Ostatnio do Europy przybył wspomniany już szef OpenAI. Widział się z przywódcami państw i komisarzami europejskimi. Podejrzewa się, że bada oferty miejsca na europejską siedzibę firmy. Czego może oczekiwać? Któż to wie, ale po wizycie w Paryżu francuscy ministrowie i prezydent Emmanuel Macron nagle bardzo krytycznie wypowiadają się o przyjętej niedawno przez PE wersji aktu o sztucznej inteligencji... Czy zatem nie jest tak, że firmy chcą zostać uregulowane, no ale... bez przesady? Najchętniej same by ustaliły, jak te normy, których będą przestrzegać, miałyby wyglądać. Magazyn „Time” ujawnił, że sugerowane przez OpenAI poprawki mogły zostać przyjęte, a zapisy, którym było niechętne — nie. Oczywiście nie ma nic dziwnego w tym, że firma, której ma dotyczyć nowe prawo, chce mieć na nie wpływ. Uczyniono to także niezwykle tanio, bo według rejestru transparentności na lobbing OpenAI wydało mniej niż 25 tys. euro. Przynajmniej na ten oficjalny.
Unijny akt o sztucznej inteligencji to dobre standardy na początek, poświęca się w nich uwagę wielu realnym problemom: przejrzystości, uczciwości, ryzyku dyskryminacji, także ryzyku „złych zastosowań”, np. dezinformacji lub tworzenia depfake’ów, czyli fałszywych przekazów wideo. Rok temu ku oburzeniu i strachowi wielu ludzi na Zachodzie wypuszczono fałszywkę z Zełenskim. Niedawno zhakowano telewizję w Rosji i wyemitowano deepfake z Putinem ogłaszającym mobilizację itd. Na Zachodzie oburzenie było jakby mniejsze. Słusznie. Ważniejsze jest co innego. Fałszywka z Putinem była sprawniejsza niż ta z Zełenskim, trafiła do odbiorców za pomocą idealnego kanału informacyjnego (telewizji). Bo problemem nie jest samo wytworzenie takiego obrazu, tylko dotarcie do ludzi. Mało kto w Polsce zwracał na to uwagę, bo o wiele prościej jest mówić o samym tworzeniu treści. Natomiast platformy internetowe zwalczają te nadużycia, a zobowiąże je do tego prawnie właśnie europejski akt o sztucznej inteligencji (pod ryzykiem wysokich kar pieniężnych).
Problemów z AI jest bez liku. Z czasem mogą się choćby „wyuczyć” rzeczy objętych prawami autorskimi lub ochroną danych osobowych. Ale czy w ogóle jest możliwe usunięcie danych z dużego modelu językowego? Prace trwają, a wyniki nie są zbyt obiecujące. Także dlatego, że model AI/LLM to po prostu liczby. Nie jest łatwo wyciąć pewne treści „cyfrowym skalpelem” z takiej struktury danych. Są więc dwie możliwości: jakoś je usunąć albo zablokować udostępnianie wyniku na dany temat. To drugie podejście jest szeroko stosowane.
Największe przeszkody w upowszechnieniu się AI są natury polityczno-społecznej. W maju w Brukseli miał już miejsce protest przeciwko rozwojowi AI – przed siedzibą Microsoftu. Był niewielki i spokojny, nawet kulturalny, nie spalono ani jednego samochodu, nie wybito żadnej szyby. Przyszłość może nam jednak sprawić wiele – przykrych – niespodzianek. Ryzyka społecznego pominąć nie sposób, o czym ludzkość dowiadywała się wielokrotnie. Choć wizja „tłumu z widłami i kosami” to nie jest coś ekscytującego przy rozważaniu dobrodziejstw oprogramowania i sprzętu komputerowego, masa krytyczna może zostać przekroczona. Nie jest jasne, czy robotyzacja będzie postępować wystarczająco szybko, by kryzysami i rewoltami społecznymi skutecznie zarządzać (tj. tłumić je przemocą). Powstanie kwestia popytu politycznego na hasła luddystów, antytechnologiczne (niedawno mieliśmy podobne – antyszczepionkowe). W Polsce do ostrożności wzywa np. prof. Andrzej Zybertowicz. W wielu kwestiach ma rację, choć w niektórych jego rozumienie i podejście może być naznaczone upeawianymi przez niego naukami społecznymi, a nawet wiedzą o strategii i wojskowości. Dobrze jednak, że ten temat jest w ogóle podejmowany. ©Ⓟ
Niezależny badacz i konsultant cyberbezpieczeństwa, fellow Genewskiej Akademii Międzynarodowego Prawa Humanitarnego i Praw Człowieka, były doradca ds. cyberwojny w Międzynarodowym Komitecie Czerwonego Krzyża w Genewie, autor książki „Filozofa cyberbezpieczeństwa”