Wyobraźmy sobie, że możemy prowadzić z AI rozmowy, w których słyszymy same pochwały i słowa akceptacji. Widzę w tym zagrożenie. Młodzi, którzy nie mają bliskich relacji, dostaną ich substytuty.

Z Adą Florentyną Pawlak rozmawiają Klara Klinger i Anna Wittenberg
ikona lupy />
Ada Florentyna Pawlak, antropolożka technologii, prawniczka i historyczka sztuki. Wykłada m.in. na Uniwersytecie SWPS i Wydziale Zarządzania Uniwersytetu Łódzkiego. Jedna z założycielek Polskiego Stowarzyszenia Transhumanistycznego. Specjalizuje się w obszarze społecznych implikacji sztucznej inteligencji i transhumanizmu / Materiały prasowe / Fot. materiały prasowe
Czym się różnimy od ChataGPT?

Stanisław Lem pisał, że w technologii szukamy luster. Sztuczna inteligencja (AI) jest takim właśnie lustrem. To nie tylko projekt technologiczny, lecz także metafizyczny. Prowokuje do myślenia o tym, kim jesteśmy i jakie są nasze potrzeby. My, ludzie, mamy „oprogramowanie” łowców zbieraczy. Nie jesteśmy w stanie uniknąć smutku, chorób, depresji. Popularna w Dolinie Krzemowej myśl transhumanistyczna głosi, że musimy z pomocą technologii wyeliminować cierpienie. Nie tylko dzięki nowym lekom, lecz także asystentom cyfrowym do złudzenia przypominającym ludzi, którzy pomogą nam osiągnąć długowieczność i dobrobyt. A także zaakceptują nas takimi, jakimi jesteśmy.

Ale to nam szczęścia nie da. Bez zaangażowania nie buduje się relacji.

Od asystenta usłyszymy to, co chcemy. Będziemy mogli łatwo się wycofać z rozmowy i nie będziemy mieć wobec niego żadnych zobowiązań. Nie trzeba będzie mówić: proszę, dziękuję, dobranoc. To bezkosztowa, egotyczna quasi-relacja.

Jack Lemoine, programista Google’a, został zwolniony za to, że przekazał mediom zapis swoich rozmów z chatbotem AI. Jego zdaniem to świadoma istota.

Człowiek jest niewolnikiem swoich błędów poznawczych. Mamy nie tylko skłonność do antropomorfizacji, lecz także „zawieszania niewiary”, czyli wchodzenia w fikcję. ChatGPT nie oddycha, nie je, nie śpi. Nie ma ciała, nie jest podatny na zranienie. Nie jest i nigdy nie będzie człowiekiem, a więc nie ma sensu tak go traktować.

Na pewno nigdy?

W transhumanizmie mówi się, że powstanie technologiczna osobliwość (singularity). To hipotetyczny punkt w cywilizacji, w którym rozwój technologiczny będzie tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne. Wydarzeniem mającym do tego doprowadzić ma być stworzenie sztucznych inteligencji przewyższających zdolności ludzi. Dziś wielu badaczy, m.in. neurobiolog i filozof Sam Harris czy fizyk prof. Andrzej Dragan, twierdzi, że dominacja intelektualna człowieka na Ziemi jest tylko przejściowa i że hodujemy gatunek, który nas prześcignie. Już teraz działanie ChatGPT przekracza pierwotny zamysł tego, czym miał być. Co będzie dalej? Nie wiemy.

To może jednak na wszelki wypadek lepiej pisać „dziękuję” w dialogach z chatbotem?

Jestem przeciwko antropomorfizacji. Już dziś mamy zjawisko określane jako fabing, czyli lekceważenie człowieka na rzecz technologii. Na przykład: idę korytarzem, spotkam koleżankę, już mam się przywitać, ale w tym samym momencie dzwoni telefon. I to interakcję z nim wybieram. Albo przychodzi dziecko, gdy właśnie coś mi pika, więc zamiast porozmawiać, najpierw sprawdzam, o co chodzi. Jesteśmy scyborgizowanym pokoleniem, które nie stworzyło społecznych zasad użytkowania technologii w życiu codziennym. Urządzenia często wygrywają. Jeśli zaczniemy jeszcze dziękować technologii jak jakiejś wyroczni, nadamy jej podmiotowość.

Co w tym złego?

Zmagamy się z globalnym kryzysem samotności. Paradoksalnie w kulturze mediów społecznościowych zarówno single, jak i osoby żyjące w związkach doświadczają poczucia izolacji. Jednak niczym seks w wiktoriańskiej Anglii samotność stała się wstydliwa. Jestem sama, ale nikt nie może się o tym dowiedzieć, bo to wskazuje, że coś jest ze mną nie tak. Wstyd powoduje wycofanie, oddala, blokuje, odwodzi od uczestniczenia. Narzędzia, które imitują ludzi, odpowiadają na tę potrzebę.

W jaki sposób?

W 1966 r. Joseph Weizenbaum z MIT stworzył ELIZĘ, pierwszy chatbot, który odpowiadał na proste pytania. Jego zadaniem było wspomaganie psychoterapii. Gdy pewnego dnia Weizenbaum wrócił wieczorem do pracy, na miejscu zastał swoją sekretarkę rozmawiającą z ELIZĄ. Choć kobieta świetnie zdawała sobie sprawę, że to tylko algorytm, poprosiła szefa, żeby wyszedł, tłumacząc, że to poufna rozmowa. Weizenbaum pytał też studentów, dlaczego rozmawiają z ELIZĄ, skoro wiedzą, że po drugiej stronie nikogo nie ma. A oni powiedzieli mu kluczową rzecz: „ona nas nie ocenia”. Po odkryciu, jak łatwo sztuczne twory łudzą ludzi, Weizenbaum przesunął się na pozycje największych krytyków nowej technologii.

W dzisiejszych czasach, kiedy tak łatwo się ze sobą porównywać i wzajemnie oceniać, argument studentów może mieć jeszcze większą siłę.

W kulturze prawego kciuka, w której żyjemy, możliwość niebycia ocenianym, wydaje się marzeniem. Twórcy AI doskonale to wiedzą. Dlatego tworzą wirtualnych influencerów (VI).

Czyli kogo?

Postacie istniejące tylko w sieci. W filmie „Blade Runner” hasło reklamujące roboty brzmi: „bardziej ludzcy niż ludzie”. I właśnie tacy mają być wirtualni influencerzy – niedoskonali tak jak my. Badając ze studentami ich świat, stworzyliśmy nawet pojęcie „hipercielesność”, które wskazuje na pewien paradoks. Wirtualni influencerzy mają wszystkie cielesne atrybuty, których „ludzcy” influencerzy starają się unikać: piegi, rozmazany makijaż, odstające rano włosy, pot na czole. Autentyczność zostaje więc oderwana od tego, czy coś jest prawdziwe, czy nie. Można ją przypisać czemuś, co nie istnieje.

Definicje opisujące świat przestają nadążać?

Wciąż mamy podział na fikcję i rzeczywistość, bo podział na offline–online dawno upadł. Teraz zaciera się również podział na to, co żywe i martwe. Potwierdza to w książce „Alone Together” (Samotni razem) Sherry Turkle z MIT, która od dekad bada wpływ robotów na ludzi. Turkle dowodzi, że życie nie jest już nieodłącznie związane z biologią i ciałem, lecz łączy się z komunikacją i interakcjami.

Co to dokładnie znaczy?

Zaczęło się od tego, że Turkle spostrzegła, iż jej córka karmi zabawkę Tamagotchi, ale zapomina podlewać kwiatki. Doszła wtedy do wniosku, że najważniejszym elementem relacji są ciągłość kontaktu i symulacja emocji. A to mogą zapewnić robotyczne zabawki, takie jak Furbisie, które płaczą, śmieją się, domagają pieszczot i karmienia. Podobnie jak dla pierwszych użytkowników chatbotów dla dzieci nie ma większego znaczenia to, że nie są ludźmi. Efekt ELIZY działa, bo świadomość istoty wirtualnej traktowana jest jako płynna: w ważnych dla siebie momentach użytkownicy zakładają jej istnienie, w innych – np. gdy nie chcą czuć się oceniani – przyjmują jej nieistnienie. To, czy ktoś fizycznie istnieje, czy nie, przestaje mieć znaczenie.

Nie obchodzi nas, czy po drugiej stronie jest człowiek?

Miquela, jedna z pierwszych wirtualnych influencerek, ma 8 mln obserwujących na Instagramie. Nagrała nawet płytę, której można posłuchać na Spotify. A takich przykładów są dziesiątki. Wirtualni influencerzy tworzeni są po to, żeby zarabiać kasę dla korporacji. A skutki społeczne są efektem ubocznym.

Przyjmując podejście Sherry Turkle, dla wielu osób Miquela jest żywa mimo braku biologicznego ciała?

Wystarczająco żywa. Istnieje w jakimś świecie, jest aktywna, zarabia pieniądze, wchodzi w interakcje, może odpowiadać na pytania. Nie musi nawet odnosić się do moich wpisów. Liczy się już sam fakt, że dostanę lajka lub inny użytkownik skomentuje mój wpis. To stwarza więź emocjonalną, która wystarczy, żeby na mnie wpływać. Nie trzeba więc nawet wyposażać wirtualnych influencerów w sztuczną inteligencję.

Wystarczy dobra historia?

Tak. Oczywiście w pracę nad postacią są zaangażowani nie tylko graficy, lecz także storytellerzy zatrudniani przez agencje, które świetnie wiedzą, co najbardziej grzeje i angażuje ludzi. Dzięki temu mogą stworzyć postać, której siła przekazu będzie znacznie większa niż „fizycznego” influencera, który ma swoje ograniczenia. Co sprawia, że VI są skuteczni? Symulowanie przyjaźni, ale i autentyczność. Tu znowu pojawia się paradoks: sztuczny twór jest mi bliższy niż rzeczywista osoba. A rozwój technologii powoduje, że niedługo nie będziemy w stanie rozróżnić, czy coś jest grafiką wygenerowaną przez AI, czy zdjęciem prawdziwego człowieka.

W walce dwóch światów – fizycznego i wirtualnego – ten drugi zaczyna zwyciężać?

To jest jeden świat. Już teraz niektóre aplikacje oferują kontakt z „digital humans”. Jeśli będziemy mieli dobre okulary, a może nawet soczewki pozwalające na dostęp do metawersum, to nasza cielesność zupełnie się rozpłynie. W takiej przestrzeni z jednej strony spotkamy ludzi istniejących cyfrowo jako wymyślne stwory, z drugiej strony – postaci wyglądające jak prawdziwa osoba, w której osadzona jest sztuczna inteligencja.

Jak u Szekspira – nikt nie jest tym, za kogo się podaje.

Tak. Był taki odcinek serialu „Black Mirror”, w którym dwóch przyjaciół spotkało się w grze. Jeden z nich był tam kobietą. Zaczęli uprawiać seks i okazało się, że w przestrzeni cyfrowej emocje są równie prawdziwe jak w fizycznym świecie. Ale i całkiem inne.

Bohaterowie tego odcinka próbowali nawet całować się w realu. Ale nie było w tym emocji.

No właśnie. Awatary w metawersum są dla nas tak przekonujące, że przekraczają tzw. dolinę niesamowitości.

Badania pokazują, że im bardziej robot jest podobny do człowieka, tym bardziej mu ufamy. Aż do momentu, kiedy zaczyna nas do złudzenia przypominać i czujemy się z tym niekomfortowo – wtedy krzywa zaufania się załamuje. To właśnie ta dolina niesamowitości, tak?

Trudno zbudować robota, który przejdzie tę dolinę i oszuka nas, że jest człowiekiem. Konieczna jest odpowiednia faktura skóry, włosów, paznokci, temperatura ciała. W metawersum te bariery znikają. Wirtualni influencerzy są już tak podobni do ludzi, że wierzymy w ich prawdziwość.

Jak może się to odbić na naszej psychice?

Nasz mózg nieustannie analizuje, co jest żywe, a co martwe. To pozostałość po czasach, kiedy byliśmy łowcami zbieraczami. Dwa lata temu jedna z koreańskich firm medialnych pokazała matce przestrzennego awatara córki, która zmarła w wieku siedmiu lat. Można to zobaczyć na YouTube – kobieta nie chciała przerwać tego doświadczenia.

Brzmi przerażająco.

Taki awatar może zatrzymać nas w nieustannej żałobie.

Co to znaczy?

W odróżnieniu od sztucznej inteligencji nasz czas jest skończony. Nasza doba trwa 24 godziny i tego nie zmienimy. Jeśli będę poświęcała godzinę czy dwie wirtualnej postaci, to tego czasu nie poświęcę już drugiemu człowiekowi. A proces wytwarzania kultury polega m in. na tym, że ze sobą dyskutujemy. Umasowienie wirtualnych awatarów może nas zamknąć w klatce. Nie będziemy mieli potrzeby, aby z niej wychodzić, bo jej działanie utrzyma nas w hedonii.

Szybkie zaspokajanie przyjemności nie będzie motywować nas do rozwoju?

Jaką mogę mieć wtedy motywację? Każdemu człowiekowi potrzebny jest czasem przyjaciel, który powie: „hej, robisz źle!”. Tymczasem wirtualny influencer będzie podsycał nasz narcyzm, nieustannie nas chwaląc. Jego celem jest zatrzymać nas przy sobie. Kontakt z AI rodzi pytania: w jaki sposób rozwój technologii wpływa na intymność? Czy nowe formy relacji – z chatbotami, wirtualnymi influencerami – będą odpowiedzią na naszą samotność i potrzebę bliskości?

Jak zatem będzie wyglądać nasza przyszłość?

Podpowiedzi można szukać w popkulturze. W filmie „Blade Runner 2049” bohater żyje z hologramem. W „Her” Spike’a Jonesa Theodor, postać grana przez Joaquina Phoenixa, ciągle chodzi ze słuchawką w uchu, bo słyszy w niej wirtualną dziewczynę. Oba filmy sugerują, jaki jest koszt takich zmian – a jest nim potworna samotność.

Bohater filmu „Her” nie może pogodzić się z tym, że sztuczna inteligencja nie zna koncepcji wierności – że może być równocześnie ze wszystkimi.

Faktycznie dla Theodore’a problemem nie był brak fizycznego ciała, lecz brak wyłączności. Myślę, że Jones udzielił bezcennej lekcji przyszłym producentom asystentek cyfrowych. Pozwolił im zaoszczędzić miliardy dolarów.

A czy z pomocą generowanych przez AI awatarów my sami nie zmienimy się w klony?

Tak już się dzieje: celebryci robią swoje cyfrowe duplikaty. Firma Forever Voices wytworzyła np. cyfrowe, głosowe klony Taylor Swift, Kanye Westa i Steve'a Jobsa. Influencerka Caryn Marjorie używa klona AI (CarynAI) do rozmów audio z fanami. Awatar replikuje jej wizerunek, głos i osobowość, co pozwala odbiorcom poczuć się tak, jakby komunikowali się z „żywą” influencerką. Kosztuje to dolara za minutę. Już w pierwszym tygodniu od premiery Caryn Marjorie zarobiła w ten sposób 72 tys. dol.

I kto ją ogląda?

Aż 25 proc. dziewcząt w grupie wiekowej 18–24 lat śledzi wirtualnych influencerów. W grupie 55 plus większość nie wie o istnieniu takiego zjawiska. Dla nas – osób osadzonych w kulturze pisma – AI może być fajnym narzędziem, ale sądzę, że do wielu rozwiązań będziemy podchodzić sceptycznie. Natomiast cyfrowi nomadzi, którym przyjemności nie zapewniają już przyjaciele czy spacery z psem, lecz polubienia na Instagramie, są już w pewnym sensie uzależnieni od dawki emocji, która się wiąże z doświadczeniami cyfrowymi. A teraz wyobraźmy sobie, że możemy prowadzić z AI rozmowy, w których słyszymy same pochwały i słowa akceptacji. Widzę w tym zagrożenie. Młodzi, którzy nie mają wieloletnich, bliskich relacji, dostaną ich substytuty. Wyrastające w kulturze mediów społecznościowych pokolenie Alfa będzie się mierzyć z problemem odróżniania prawdy od fałszu, realności od iluzji. AI czy VI bramę rozgrzewają nasze emocje i wyobrażenia. Mój postulat to zapewnienie „bezpieczeństwa antropologicznego”, czyli świadomości, z kim rozmawiamy i jakie ten ktoś ma interesy.

Rozwój technologiczny jest tak szybki, że nie jesteśmy w stanie się do niego zaadaptować?

Reakcją na przeciążenia poznawcze może być wycofanie, czyli całkowite odrzucenie AI. Przeciążonymi informacyjnie osobami jest też łatwo manipulować, przekierować ich uwagę na zupełnie inne, nieistotne tory. To np. dyskusja o tym, czy AI doprowadzi do zagłady ludzkości.

Wierzy w to 15 proc. Polaków.

Tymczasem nie rozmawiamy o podstawowych kwestiach.

Czyli o czym?

O przyszłości demokracji. Zakłada się, że kilka procent społeczeństwa zdobędzie wiedzę i umiejętność posługiwania się technologią, a reszta pozostanie biernymi odbiorcami. Już teraz widzę, że ludzie mają ogromny problem ze zrozumieniem zasad panujących w świecie cyfrowym. Kiedy na warsztatach pokazuję plansze o wirtualnych influencerach, myślą, że to bajka. A to narzędzia, które można wykorzystać do manipulacji. VI wpływają nie tylko na decyzje zakupowe, lecz także na sposób myślenia – również o polityce. Bermuda, wirtualna influencerka i modelka, zachęcała do głosowania na Donalda Trumpa. Nie ma dobrej technologii i złej technologii, ale możemy ocenić jej architekturę. A ta obecna prowadzi nas do atomizacji.

Algorytmy TikToka zamiast filmików od znajomych podrzucają nam treści, które nas wciągają, uzależniają. A mimo to wciąż mówimy o takich mediach „społecznościowe”. Może potrzebujemy nowej nazwy?

To prawda, dlatego coraz częściej akademicy mówią o nich „media syntetyczne”. Włoski filozof Roberto Esposito jeszcze przed ich pojawieniem się pisał o procesach, które prowadzą do „odspołecznienia” (immunitas). Teraz wszystko idzie w tym kierunku. Wirtualne relacje prowadzą do narcyzmu cyfrowego, który przejawia się m.in. w niechęci do zawierania głębszych relacji w świecie rzeczywistym. To forma autoafirmacji i samozadowolenia. Media syntetyczne będą fast foodem dla mózgu. W głodzie społecznym będziemy jeść obrazki. I będzie to bardzo niezdrowa dieta. ©Ⓟ