Sztuczna inteligencja jest przedmiotem ciągłych dyskusji, lecz pomimo braku eksperckiego konsensusu, rozumie się ją najczęściej jako zaprojektowane przez człowieka skomplikowane systemy, które bez nadzoru działają racjonalnie, tj. w sposób sensowny z ludzkiej perspektywy. Klaus Schwab, autor pojęcia rewolucji przemysłowej 4.0, przekonuje, że to właśnie rozwiązania oparte na algorytmach zadecydują o awansie gospodarczym państw i całych regionów.
Byt czy technologia?
Termin „sztuczna inteligencja” wymyślił amerykański informatyk John McCarthy w 1956 r. na konferencji naukowej w Dartmouth. Określił ją jako „naukę i inżynierię tworzenia inteligentnych maszyn”. Badania nad SI wykorzystują dziś tezy i osiągnięcia z informatyki, psychologii, filozofii, kognitywistyki, lingwistyki, ekonomii, prawdopodobieństwa i logiki. Dzięki temu SI jest teraz definiowana na dwa odmienne sposoby. Ontyczny – jako odrębny byt obdarzony samoświadomością i zdolnościami do samodzielnego uczenia się, oraz prakseologiczny – jako technologia wspierająca człowieka w dziedzinach wymagających powtarzalności i precyzji.
Reklama
Zaledwie ćwierć wieku po McCarthym, w 1981 r. Stanisław Lem opublikował książkę zatytułowaną „Golem XIV” będącą zapisem wykładów fikcyjnej, zaawansowanej maszyny cyfrowej, stworzonej w XXI w., w której wykształciła się sztuczna inteligencja. „To nie prawda, że myśmy stworzyli Golema. Stworzyły go właściwe światu materialnemu prawa, a nasza rola ograniczyła się do tego, że umieliśmy je podpatrzyć” – stwierdza pisarz. Bohater jego książki, obdarzony świadomością superkomputer, ku zaskoczeniu swoich twórców przeprowadził miażdżącą krytykę naszej kultury. Jego wypowiedzi to dialog człowieka z Rozumem, który znajduje się już poza naszymi możliwościami poznania.
„Golem nie posiada osobowości ani charakteru. A właściwie może prokurować sobie dowolną osobowość. Oba powyższe zdania nie wykluczają się nawzajem, lecz tworzą błędne koło: nie umiemy bowiem rozstrzygnąć dylematu, czy To, co stwarza różne osobowości, samo jest osobowością? (...) Pozbawiony typowych dla człowieka ośrodków afektywnych Golem nie jest zdolny do przejawiania uczuć. Może on jedynie imitować dowolne stany uczuciowe dlatego, że ułatwia to kształtowanie wypowiedzi, możliwie dokładnie trafiającej do adresatów” – pisze Lem.

Reklama
I dalej: „Jemu i nam właściwa jest tylko jedna cecha wspólna. Jest nią ciekawość, której nic nie może poskromić, a tym bardziej zniszczyć. Stanowi ona jedyny punkt, w którym się z nim spotykamy”.
Czy tego przesłania pisarza wizjonera nie powinniśmy potraktować jako ostrzeżenia?
Konieczność i wątpliwości
Wydaje się, że w powszechnej opinii na temat rozwoju prac nad SI przeważa entuzjazm. W 2019 r. Instytut Badawczy Naukowej i Akademickiej Sieci Komputerowej (NASK) opublikował wyniki badań przeprowadzonych wśród polskich internautów. Zapytani o korzyści płynące z upowszechniania SI stwierdzili, że poprawi ona komfort życia (34 proc.). Prawie co trzeci ankietowany sądził, że przyczyni się do zmniejszenia liczby wypadków w pracy (32,7 proc.), a także, że produkty i usługi będą bardziej dostosowane do potrzeb klientów (30,3 proc). Najmniejsze korzyści dostrzegano w dziedzinie społeczno-gospodarczej. Tylko 6 proc. uważała, że spadnie poziom bezrobocia.
Cyfryzacja wielu dziedzin naszego życia postrzegana jest jako konieczność, choć oprócz nadziei na rozwiązanie trapiących współczesny świat problemów niesie za sobą także wątpliwości co do kierunku swego rozwoju. Międzynarodowa współpraca jest niezbędna, a jedną z jej form są cykliczne spotkania ekspertów mające na celu uzgodnienie wspólnych standardów.
Przed dwoma laty Komisja Europejska opublikowała Białą księgę w sprawie sztucznej inteligencji (ang. White paper On Artificial Intelligence – A European approach to excellence and trust). Dokument jest częścią europejskiej strategii cyfrowej, ale nie jest aktem prawnym, lecz zbiorem propozycji, które wyznaczają przyszły kierunek unijnych regulacji i inicjatyw w dziedzinie sztucznej inteligencji.
Uregulować nieokreślone
KE zakłada, że regulacje powinny uwzględniać stopień ryzyka związany z rozwiązaniami wykorzystującymi SI. Dlatego w Białej księdze znalazły się zapisy, że technologia oparta na sztucznej inteligencji powinna być surowo i przejrzyście regulowana przez człowieka, zwłaszcza w sektorach podwyższonego ryzyka, do których zaliczane są opieka zdrowotna, transport, policja i system prawny. Biała księga zakłada również, że systemy wykorzystujące sztuczną inteligencje powinny podlegać nadzorowi i kontroli państwowej.
22 listopada 2019 r. opublikowano raport Grupy Ekspertów ds. Odpowiedzialności i Nowych Technologii (Expert Group on Liability and New Technologies „NTF”) dotyczący odpowiedzialności prawnej za szkody powstałe w wyniku działania sztucznej inteligencji i innych nowych technologii cyfrowych. Autorzy ekspertyzy „Liability for Artificial Intelligence and other emerging digital technologies” podkreślają, że obecnie obowiązujące przepisy w państwach członkowskich oraz w całej Unii Europejskiej w sposób niewystarczający i nieefektywny regulują kwestię prawnej odpowiedzialności za sztuczną inteligencję i nowe technologie cyfrowe.
Zdaniem autorów raportu specyfika SI i nowych technologii – ich złożoność, możliwość zmiany istoty działania po modyfikacji, ograniczona przewidywalność oraz podatność na zagrożenia bezpieczeństwa wymagają wprowadzenia istotnych zmian w prawie. Na szczególną uwagę zasługuje wniosek ekspertów na temat nadawania osobowości prawnej sztucznej inteligencji. Zdaniem autorów raportu nie jest to pożądane, ponieważ szkody powstałe w wyniku funkcjonowania nowych technologii powinny być przypisane odpowiedzialnym za nie osobom lub instytucjom.
Mrówki i ludzkie wartości
To jednak tylko jedna strona medalu. Według przytaczanego wcześniej raportu Instytutu Badawczego NASK, niemal połowa respondentów (44,8 proc.) stwierdziła, że technologia oparta na sztucznej inteligencji uniezależni się od kontroli człowieka, a co trzeci badany uważał, że konsekwencje z tego wynikające będą dla ludzi niekorzystne. Niepokój ten podzielał zmarły przed trzema laty prof. Stephen Hawking, brytyjski fizyk teoretyczny specjalizujący się w astrofizyce, który twierdził, że jeśli uda nam się stworzyć sztuczną inteligencję z prawdziwego zdarzenia, będzie to albo najlepsza, albo najgorsza rzecz w historii ludzkości.
Hawking podkreślał, że prawdziwym ryzykiem związanym z SI nie jest to, że będzie ona zła czy złośliwa, lecz kompetencje, w jakie zostanie wyposażona. „Będzie świetnie radzić sobie z osiąganiem celów, ale jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem” – mówił na konferencji w czerwcu 2016 r. „Domyślam się, że nie jest pan kimś, kto nienawidzi mrówek i depcze je w ataku złości, kiedy tylko ma ku temu okazję” – zauważył Hawking, odpowiadając na pytanie pewnego wykładowcy. „Ale wyobraźmy sobie, że jest pan odpowiedzialny za zbudowanie hydroelektrowni i w miejscu, które ma być zalane wodą, znajduje się kolonia mrówek – cóż, mrówki mają pecha. Nie powinniśmy doprowadzić do tego, by ludzie byli takimi mrówkami” – powiedział wybitny naukowiec.
Dlatego razem z innowatorami, wśród których znalazł się również Elon Musk, prof. Hawking pomógł opracować 23 zasady, które mają nas chronić przed złą sztuczną inteligencją. Jedna z nich głosi, że wysoce autonomiczne systemy SI powinny być zaprojektowane w taki sposób, by ich cele i sposób działania były zgodne z wartościami wyznawanymi przez ludzi. Zostały one nazwane zasadami z Asimolar – od nazwy konferencji, jaka odbyła się w 2017 r. w Kalifornii.
Jeśli będziemy starać się je przestrzegać, powinniśmy uniknąć katastrofy, a nawet więcej. Być może SI pomoże nam w opracowaniu innego modelu gospodarki niż ten oparty na ciągłym wzroście, który niekiedy bywa nazywany logiką nowotworu. Niewykluczone też, że rozwiąże wreszcie matematyczną zagadkę hipotezy Bernharda Riemanna, która od połowy XIX w. czeka na swego odkrywcę. Może też spełni marzenie Rogera Penrose’a o opracowaniu teorii godzącej sprzeczności mechaniki kwantowej i teorii względności. Wyzwań dla sztucznej inteligencji jest wiele i pozostaje nam mieć tylko nadzieję, że w świecie rządzonym przez algorytmy wizja zawarta w „Golemie XIV” nie okaże się prorocza. „Dr Popp uważa, że Golem w ogóle nie zajmuje się ludźmi – ponieważ wie, że się od nich niczego istotnego nie może dowiedzieć” – pisał Stanisław Lem. Jeśli więc SI będzie się uczyć tylko na własnych błędach, to jak się wydaje, zasadniczą kwestią będą koszty, które przyjdzie nam za nie zapłacić. I nie idzie tylko o pieniądze.