- Wcześniej pewne decyzje podejmowało za nas życie i można było mówić, że to jest fatum, Opatrzność czy przypadek. W tej chwili zaawansowana wiedza i technologie sprawiają, że spadają one na nas - mówi w rozmowie z DGP Maciej Chojnowski współtwórca i dyrektor programowy Centrum Etyki Technologii Instytutu Humanites, członek grupy roboczej ds. AI w KPRM; autor publikacji „Etyka sztucznej inteligencji. Wprowadzenie”.

Z Maciejem Chojnowskim rozmawia Anna Wittenberg
Czy przyszłość już tu jest?
Zdecydowanie. I musimy być tego świadomi, bo to kwestia odpowiedzialności za przyszłe pokolenia. To poniekąd fundament etycznego myślenia o technologii.
Pytam, bo jeszcze pół roku temu wydawało się, że technologie wykorzystujące AI to konstrukcja z filmów science fiction.
Nie zgodzę się. Przez kilka lat pracowałem w portalu Sztucznainteligencja.org.pl i obserwowałem, jak moi koledzy opisują kolejne nowinki. To wszystko trwa już od dłuższego czasu.
Nigdy jeszcze nie było jednak tak, że narzędzi wykorzystujących AI mogły używać dzieci do pisania wypracowań.
Maciej Chojnowski współtwórca i dyrektor programowy Centrum Etyki Technologii Instytutu Humanites, członek grupy roboczej ds. AI w KPRM; autor publikacji „Etyka sztucznej inteligencji. Wprowadzenie” / Materiały prasowe / fot. Materiały prasowe
W ostatnim czasie rzeczywiście wielką popularność zyskał chatbot opracowany przez firmę OpenAI. Myślę jednak, że udostępnienie tego narzędzia to do pewnego stopnia chwyt marketingowy. Choć oczywiście przyznaję, że już teraz widać, jak duży potencjał w tym drzemie i zarazem jak duże są ryzyka. Ale też nie przesadzajmy z ekscytacją - czytałem niedawno reportaż o tym, jak próbowano wykorzystać AI w dziennikarstwie. Okazało się, że efekty tylko pozornie były świetne. I teraz zamiast czerpać zyski, trzeba sprawdzać, czy artykuły są zgodne z prawdą, bo robot w wielu miejscach napisał kompletne dyrdymały.
Tymczasem w społecznej świadomości pokutuje obraz podsycany przez myślicieli takich jak Max Tegmark czy Nick Bostrom, że AI najpierw osiągnie poziom ludzki, a następnie pojawi się „superinteligencja”, która zawładnie światem. Oczywiście nie można tego zupełnie wykluczyć, ale dzisiaj mamy dużo bardziej przyziemne problemy z AI.
Czyli poważnego zagrożenia - przynajmniej na razie - nie ma?
To też nie tak. Sztuczna inteligencja niesie ze sobą wiele niebezpieczeństw. Część z nich związana jest dość ściśle ze sposobem działania systemów uczenia maszynowego. Jak choćby ryzyko dyskryminacji wynikające ze skrzywienia algorytmicznego, które jest efektem trenowania AI na niewystarczająco reprezentatywnych danych. Kolejny problem to nieprzejrzystość działania niektórych systemów sztucznej inteligencji. Ale są też kwestie innego rodzaju, które dotyczą naszego funkcjonowania w świecie pełnym nowoczesnych technologii, jak np. malejące poczucie ludzkiej sprawczości. Jeszcze inna sprawa to koncentracja kapitału przez najbardziej zaawansowane firmy technologiczne i monopolizowanie rynków. Tych wyzwań jest naprawdę sporo i mają one różne, nierzadko złożone przyczyny.
Jakie jest miejsce etyki w dyskusji o AI?
Fundamentalne! Choć w Polsce nie ma chyba jeszcze takiej świadomości. Etyka, podobnie jak prawo, tworzy ramy normatywne dla nowych technologii. Obie te dziedziny się przenikają - obecnie trwają prace nad unijnym rozporządzeniem regulującym stosowanie sztucznej inteligencji, tzw. AI Act. Jego projekt powstał właśnie na podstawie wskazówek dotyczących godnej zaufania AI. Ale na gruncie etyki tworzone są również konkretne rozwiązania, które pokazują, jak przekładać na praktykę abstrakcyjne wymogi etyczne czy prawne. Wbrew pozorom etyka sztucznej inteligencji jest więc bardzo użyteczna.
Ale prace nad AI trwają na całym świecie - w obrębie różnych kultur, z różnymi podstawami etycznymi. Czy jest jakaś płaszczyzna, na której możemy się spotkać? Wypracować coś uniwersalnego?
Wszystko zależy od punktu widzenia. Ktoś, kto wierzy w uniwersalizm aksjologiczny, powie, że podstawą są tutaj prawa człowieka. To one zresztą stanowią bazę dla wytycznych dotyczących godnej zaufania sztucznej inteligencji, o których wspomniałem. Natomiast ktoś sceptyczny wobec tej koncepcji, kto traktuje ją np. jak rodzaj kolonializmu kulturowego, zapewne nie przyjmie takiej odpowiedzi. Dlatego proponowane są też inne ujęcia. Amerykańska filozofka Shannon Vallor odwołuje się do tradycji Arystotelesa i etyki cnót, która mniej skupia się na abstrakcyjnych normach, a bardziej na roztropności, czyli mądrości praktycznej pomagającej odnaleźć się w różnych złożonych sytuacjach. Taki mądrościowy model myślenia jest bliski wielu kulturom i tradycjom.
Warto przy tym wyraźnie podkreślić, że w etyce AI nie chodzi o kodowanie moralności w maszynach, ale o to, żeby ludzie, którzy tworzą te rozwiązania, umieli to robić odpowiedzialnie. Oczywiście wśród etyków AI są i tacy, którzy uważają, że trzeba próbować wyposażać maszyny w moralność, ale większość środowiska pozostaje wobec tego raczej sceptyczna.
Z jakiego powodu?
Podmiotem moralnym, czyli istotą mającą zdolność moralnej refleksji, są wyłącznie ludzie. Zwierzętom nie przyznajemy tego statusu. Choć potocznie możemy uważać je za dobre bądź złe, to jednak one nie są w stanie podejmować moralnych decyzji. Mogą operować na emocjach, są istotami czującymi, ale na pewno nie posiadają zdolności refleksji moralnej. Natomiast mówienie o moralności maszyn jest już w ogóle nadużyciem.
Nie da się zaprogramować moralności?
Można próbować zaprogramować reguły, które kształtują moralność ludzi, ale to nie znaczy, że maszyna będzie dzięki temu moralna. To jest bardzo ważna różnica.
Tylko ludzkie działania mogą być moralne?
A i te nie wszystkie! Kant uważał, że moralne mogą być tylko decyzje podjęte ze względu na obowiązek moralny. A zatem jeśli ja pani pomogę, dlatego że jest mi pani w jakiejś sytuacji szkoda, a nie ze względu na wymóg pomocy bliźniemu, to wcale nie dokonałem moralnego czynu. To oczywiście skrajne postawienie sprawy, ale łatwo zrozumieć, że filozofowi chodziło o opisanie istoty świadomości moralnej. Tak więc jeśli nawet maszyna zachowa się w sposób zgodny z etyką, to nie znaczy, że ona jest podmiotem moralnym. Oczywiście można dyskutować nad szczegółowymi rozwiązaniami, które sprawiają, że maszyny działają lepiej albo gorzej względem naszych kategorii moralnych. Ale byłbym bardzo powściągliwy z mówieniem, że to jest kodowanie moralności, bo to by zakładało, że taka maszyna jest zdolna do sądów moralnych. A nie jest - ona w ogóle nic nie rozumie.
Nieźle udaje, że jednak to robi.
Powiedzmy sobie wprost: sztuczna inteligencja na tym etapie, jaki mamy dzisiaj, nie posiada zdolności rozumienia. Jest zdolna tylko do działania na dużych zbiorach danych, wykrywania korelacji. Natomiast rozumienie jest absolutnie fundamentalnym brakiem, na co zwracają uwagę neuronaukowcy tacy jak Gary Marcus. Nawet zaawansowanym chatbotom wystarczy zadać jakieś podchwytliwe pytanie, na które z powodzeniem odpowiedziałoby dziecko, a one głupieją.
Czyli za każdym wyborem, którego dokona maszyna, stoi człowiek, który wprowadził dane wejściowe.
To też nie do końca tak. Maszyny stają się coraz bardziej autonomiczne. Cały problem polega właśnie na tym, że nie rozumieją, ale generują rezultaty, które wykraczają ponad to, co zostało w nich pierwotnie zaprogramowane. Nie wszyscy chcą przyznać, jakie to niesie konsekwencje.
To znaczy?
Ktoś wprowadzający dane rozwiązanie na rynek jest po prostu za nie odpowiedzialny - bez względu na stopień autonomiczności maszyny. Co więcej, jeśli analiza ryzyka wykaże, że działalność takiej sztucznej inteligencji w jakimś obszarze jest groźna, to wówczas nie powinna ona tam być w ogóle stosowana. To właśnie zakłada projekt europejskiego AI Act. Systemy klasyfikowane jako systemy niedopuszczalnego ryzyka będą zabronione.
Poproszę o przykłady.
Rozporządzenie wymienia tu np. rozpoznawanie twarzy w miejscach publicznych w czasie rzeczywistym na potrzeby egzekwowania prawa. Takie działanie jest zabronione. Podobnie prowadzenie przez władze tzw. social scoring, czyli klasyfikacji społecznej. Ale są też opisane systemy wysokiego ryzyka, które można wprowadzić na rynek tylko po spełnieniu bardzo szczegółowych wymogów. Są one w dużej mierze zbieżne z rekomendacjami dotyczącymi etyki. Chodzi np. o systemy AI wykorzystywane w zatrudnieniu i w zarządzaniu pracą czy w usługach publicznych.
Czy jesteśmy gotowi na to, że autonomiczna maszyna będzie podejmowała za nas wybory? Jeśli prowadzę auto i spowoduję wypadek, to jego rezultat jest wynikiem splotu okoliczności, w tym moich odruchowych reakcji. Maszyna będzie postępować według dostarczonych danych. Udźwigniemy to, że mamy jej powiedzieć, kto w razie czego ma zginąć?
W jednym ze swoich esejów Stanisław Lem napisał, że postęp technologiczny stawia ludzkość przed kolejnymi wyzwaniami natury moralnej. Wcześniej pewne decyzje podejmowało za nas życie i można było mówić, że to jest fatum, Opatrzność czy przypadek. W tej chwili zaawansowana wiedza i technologie sprawiają, że spadają one na nas. Weźmy badania prenatalne: na ich podstawie można poznać stan dziecka przed urodzeniem i podjąć decyzję o donoszeniu lub przerwaniu ciąży. Choć pewne rzeczy podpowiada tu prawo, odpowiedzialność moralna spada na barki osób, które podejmują ostateczną decyzję.
W przypadku samochodów autonomicznych problemem jest to, w jaki sposób maszyna miałaby decydować, co zrobić w sytuacji granicznej. Niektórzy zwracają uwagę, że to problem nie tylko moralny, lecz także polityczny.
W jakim sensie?
Moralność jest często sprowadzana do sfery indywidualnej. A to, o czym tutaj mówimy, dotyczy jednak życia całej wspólnoty. Bo to już nie jest wyłącznie kwestia odpowiedzi na pytanie, co w pewnych okolicznościach miałby zrobić samochód autonomiczny, ale także tego, kto i dlaczego miałby decydować, jak będzie się on zachowywał. Firma z branży motoryzacyjnej? Ustawodawca? I na jakiej podstawie miałoby się to dokonywać? Referendów, wskazówek fachowców? A może powinno być tak, że każdy, kto posiada taki samochód, może go zaprogramować według własnych przekonań?
Jeśli wybiorę, że mój samochód ma poświęcić najpierw życie innych ludzi, to czy odpowiem za spowodowanie śmierci?
Dobre pytanie. Oprócz moralnej mamy tu także odpowiedzialność prawną. Na szczęście wiele wskazuje na to, że samochody w pełni autonomiczne nie pojawią się zbyt prędko w komercyjnym użyciu. Natomiast kwestia odpowiedzialności i tak może się skomplikować nawet w przypadku pojazdów tylko częściowo autonomicznych. Bo konieczność nadzorowania pojazdu to jednak czynność różna od kierowania. I na dodatek dużo bardziej nużąca, co osłabia koncentrację.
Weźmy więc inny przykład, również graniczny. San Francisco chciało dopuścić roboty z ostrą bronią do zapobiegania przestępczości.
Traktuję to jako niesmaczny żart.
To nie był żart, ale szybko się z tego wycofano.
Uzbrojenie robota w ostrą broń i dopuszczenie go do interakcji z człowiekiem jest niedopuszczalne, to scenariusz z kiepskiego filmu science fiction. Natomiast otwiera kolejny temat, bardzo skomplikowany. Mam na myśli przemysł zbrojeniowy i wykorzystanie sztucznej inteligencji na wojnie. Obecne wytyczne dotyczące etyki AI raczej pomijają tę sferę.
Czy są takie obszary, do których nie powinniśmy wpuszczać tej technologii?
Część z nich wskazuje wprost wspomniany projekt rozporządzenia AI Act. Ale może dla odmiany lepiej zastanowić się, w jakich obszarach warto się AI posługiwać. Jest wiele przykładów jej pożytecznego zastosowania, jak choćby oczyszczanie oceanów czy ochrona rafy koralowej. Ale zarazem trzeba pamiętać, że używanie AI to także koszty zewnętrzne, np. spore zużycie energii. A zatem nie jest obojętne dla środowiska.
Jedną z barier w stosowaniu AI może być też zwykły ludzki opór. Takie systemy nie zawsze są przyjmowane z otwartymi rękami. W Danii, która jest znana z szerokiego wykorzystywania nowoczesnych technologii w sektorze publicznym, właśnie zamknięto projekt, w którym AI miała pomagać przy trafnym rozdzielaniu zasiłków. Problem w tym, że od osób, o których losie to narzędzie miałoby decydować, wymagana była dobrowolna zgoda na wykorzystanie danych. A one jej nie udzielały. To pokazuje, że ludzie, którzy opracowują takie rozwiązania, często naprawdę nie myślą wystarczająco szeroko nad kontekstem, w jakim mają one być używane. W tym wszystkim mają właśnie pomóc narzędzia i procedury z obszaru etyki AI.
Niedawno firma dostarczająca czaty psychologiczne użyła AI, nie informując o tym. Ludzie, którzy chcieli popełnić samobójstwo, pisali o tym robotowi, a on odpowiadał „Współczuję ci”.
Taka AI miałaby zastępować psychologa, czyli dysponować kompetencjami właściwymi komuś, kto powinien zrobić wszystko, żeby powstrzymać osobę mającą skłonności samobójcze przed popełnieniem tego czynu. Można zadać sobie pytanie, po co takie rozwiązania są wdrażane. I czy głębsza refleksja na etapie startowym nie skłoniłaby jednak twórców do porzucenia takich projektów. To prowadzi nas do kolejnej kwestii, czyli spekulacji rynkowej. Nie oszukujmy się, jest bardzo dużo marketingowego szumu wokół AI, a wiele reklamowanych rozwiązań nie zasługuje na rozgłos, który je otacza.
Kto powinien się zastanawiać nad zasadami etycznymi dla AI? Inżynierowie budujący roboty? Zarządy spółek? Państwowi regulatorzy?
Takie zasady są już opracowane, ale sami inżynierowie nie sprawią, że zostaną one zaimplementowane. Nawet gdyby mieli fachowe wsparcie ze strony etyków. Bo jeśli zabraknie procedur ustanowionych z błogosławieństwem zarządu i ułatwionych ścieżek działania, to z tego nic nie wyjdzie - będzie tylko przekonanie, że to jest coś, co utrudnia i spowalnia pracę. Z kolei same zarządy mogą potrzebować motywacji ze strony prawodawcy czy branży w postaci regulacji czy dobrych praktyk. Trzeba więc na to patrzeć kompleksowo.
Z badań Capgemini sprzed kilku lat wynika, że dla ponad połowy kadry zarządzającej firmami z 10 najbardziej rozwiniętych gospodarek świata ważne jest to, żeby sztuczna inteligencja była rozwijana w sposób etyczny i transparentny. Podobne przekonania podzielali konsumenci. Tych było jeszcze więcej, bo aż trzy czwarte. To dobry prognostyk. Miejmy nadzieję, że dziś ten odsetek w obu przypadkach byłby jeszcze wyższy.
To jest moja kolejna wątpliwość - jak etyka ma się do konkurencyjności. Rozumiem, że rozwiązania, które biorą pod uwagę człowieka, zawsze podnoszą koszty prowadzenia biznesu. Jak możemy konkurować z tymi podmiotami, które nie widzą problemu?
Faktycznie, są tacy, którzy twierdzą, że Europa przegra przez takie podejście. Ale możliwy jest też zupełnie inny scenariusz.
Od kiedy zaczęliśmy skutecznie przymuszać Facebooka do etycznego działania, jego model biznesowy po prostu się załamuje.
No właśnie. Proszę sobie przypomnieć to, co Shoshana Zuboff pisała na temat kapitalizmu nadzoru: jeśli to ma być największa innowacja społeczeństw zachodnich, to nie mamy się czym szczycić.
Nie jestem hurraoptymistą i nie powiem każdemu, kto wchodzi w ten biznes, że to będzie proste. Ale uważam, że wyśrubowane przepisy mogą prowadzić do prawdziwych innowacji służących człowiekowi, i wierzę, że zadziała tu tzw. efekt brukselski. To znaczy, że inne kraje pójdą za przyjętymi tutaj regulacjami. Zwłaszcza że podobne inicjatywy projektowane są też w Stanach Zjednoczonych.
Czy Polska powinna wypracować własną strategię, czy podążać za dokumentami z Brukseli?
Polska ma już swoją politykę rozwoju sztucznej inteligencji, w której etyka stanowi ważny motyw. Dużą rolę do odegrania ma tutaj sektor publiczny, którego zadaniem jest wypracowywać pewne normy, np. dotyczące odpowiedzialnego używania danych. W interdyscyplinarnym gronie ekspertów działającym w ramach grupy roboczej ds. sztucznej inteligencji przy KPRM pracujemy m.in. nad rekomendacjami dotyczącymi etycznego zastosowania AI w sektorze publicznym. Z drugiej strony, w Polsce, jak to w Polsce, dużo się mówi, a często mniej się robi, więc pytanie, jaki będzie los takich rekomendacji, czy ktoś tego będzie przestrzegał? Co się stanie po wyborach? Jeśli zmieni się ekipa rządząca, to czy zostanie podjęte to, co wypracowała poprzednia? Większy problem widzę więc w tym, kto będzie te etyczne rozwiązania wdrażał.
Co ma pan na myśli?
Przede wszystkim dominację podejścia legalistycznego w obszarze governance, które może skutkować powierzchownością i mechanicznym podejściem do wymogów etyki. Przed takim bezrefleksyjnym formalizmem przestrzegają twórcy unijnych wytycznych. Ponadto w naszym kraju etyka jest ubogą krewną religii. I to nie jest stwierdzenie nacechowane światopoglądowo, tylko stwierdzenie faktu. Etyka w szkole nie jest niezależnym przedmiotem, tylko głównie opcją dla tych dzieci, które nie chodzą na religię. Jest więc traktowana po macoszemu i dlatego na pomysły wprowadzenia nauczania odpowiedzialnego podejścia do technologii na wszystkich etapach kształcenia patrzę dość sceptycznie. Prędzej mogłyby się tym zająć organizacje pozarządowe, ale tu musiałyby najpierw zdobyć przychylność resortu edukacji i nauki.
ShutterStock / fot. Andrey Suslov/Shutterstock
Nie chodzi o kodowanie moralności w maszynach, lecz o to, żeby ludzie, którzy tworzą te rozwiązania, umieli to robić odpowiedzialnie