Wyobraźmy sobie, że możemy prowadzić z AI rozmowy, w których słyszymy same pochwały i słowa akceptacji. Widzę w tym zagrożenie. Młodzi, którzy nie mają bliskich relacji, dostaną ich substytuty.
Stanisław Lem pisał, że w technologii szukamy luster. Sztuczna inteligencja (AI) jest takim właśnie lustrem. To nie tylko projekt technologiczny, lecz także metafizyczny. Prowokuje do myślenia o tym, kim jesteśmy i jakie są nasze potrzeby. My, ludzie, mamy „oprogramowanie” łowców zbieraczy. Nie jesteśmy w stanie uniknąć smutku, chorób, depresji. Popularna w Dolinie Krzemowej myśl transhumanistyczna głosi, że musimy z pomocą technologii wyeliminować cierpienie. Nie tylko dzięki nowym lekom, lecz także asystentom cyfrowym do złudzenia przypominającym ludzi, którzy pomogą nam osiągnąć długowieczność i dobrobyt. A także zaakceptują nas takimi, jakimi jesteśmy.
Od asystenta usłyszymy to, co chcemy. Będziemy mogli łatwo się wycofać z rozmowy i nie będziemy mieć wobec niego żadnych zobowiązań. Nie trzeba będzie mówić: proszę, dziękuję, dobranoc. To bezkosztowa, egotyczna quasi-relacja.
Człowiek jest niewolnikiem swoich błędów poznawczych. Mamy nie tylko skłonność do antropomorfizacji, lecz także „zawieszania niewiary”, czyli wchodzenia w fikcję. ChatGPT nie oddycha, nie je, nie śpi. Nie ma ciała, nie jest podatny na zranienie. Nie jest i nigdy nie będzie człowiekiem, a więc nie ma sensu tak go traktować.
W transhumanizmie mówi się, że powstanie technologiczna osobliwość (singularity). To hipotetyczny punkt w cywilizacji, w którym rozwój technologiczny będzie tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne. Wydarzeniem mającym do tego doprowadzić ma być stworzenie sztucznych inteligencji przewyższających zdolności ludzi. Dziś wielu badaczy, m.in. neurobiolog i filozof Sam Harris czy fizyk prof. Andrzej Dragan, twierdzi, że dominacja intelektualna człowieka na Ziemi jest tylko przejściowa i że hodujemy gatunek, który nas prześcignie. Już teraz działanie ChatGPT przekracza pierwotny zamysł tego, czym miał być. Co będzie dalej? Nie wiemy.
Jestem przeciwko antropomorfizacji. Już dziś mamy zjawisko określane jako fabing, czyli lekceważenie człowieka na rzecz technologii. Na przykład: idę korytarzem, spotkam koleżankę, już mam się przywitać, ale w tym samym momencie dzwoni telefon. I to interakcję z nim wybieram. Albo przychodzi dziecko, gdy właśnie coś mi pika, więc zamiast porozmawiać, najpierw sprawdzam, o co chodzi. Jesteśmy scyborgizowanym pokoleniem, które nie stworzyło społecznych zasad użytkowania technologii w życiu codziennym. Urządzenia często wygrywają. Jeśli zaczniemy jeszcze dziękować technologii jak jakiejś wyroczni, nadamy jej podmiotowość.
Zmagamy się z globalnym kryzysem samotności. Paradoksalnie w kulturze mediów społecznościowych zarówno single, jak i osoby żyjące w związkach doświadczają poczucia izolacji. Jednak niczym seks w wiktoriańskiej Anglii samotność stała się wstydliwa. Jestem sama, ale nikt nie może się o tym dowiedzieć, bo to wskazuje, że coś jest ze mną nie tak. Wstyd powoduje wycofanie, oddala, blokuje, odwodzi od uczestniczenia. Narzędzia, które imitują ludzi, odpowiadają na tę potrzebę.
W 1966 r. Joseph Weizenbaum z MIT stworzył ELIZĘ, pierwszy chatbot, który odpowiadał na proste pytania. Jego zadaniem było wspomaganie psychoterapii. Gdy pewnego dnia Weizenbaum wrócił wieczorem do pracy, na miejscu zastał swoją sekretarkę rozmawiającą z ELIZĄ. Choć kobieta świetnie zdawała sobie sprawę, że to tylko algorytm, poprosiła szefa, żeby wyszedł, tłumacząc, że to poufna rozmowa. Weizenbaum pytał też studentów, dlaczego rozmawiają z ELIZĄ, skoro wiedzą, że po drugiej stronie nikogo nie ma. A oni powiedzieli mu kluczową rzecz: „ona nas nie ocenia”. Po odkryciu, jak łatwo sztuczne twory łudzą ludzi, Weizenbaum przesunął się na pozycje największych krytyków nowej technologii.
W kulturze prawego kciuka, w której żyjemy, możliwość niebycia ocenianym, wydaje się marzeniem. Twórcy AI doskonale to wiedzą. Dlatego tworzą wirtualnych influencerów (VI).
Postacie istniejące tylko w sieci. W filmie „Blade Runner” hasło reklamujące roboty brzmi: „bardziej ludzcy niż ludzie”. I właśnie tacy mają być wirtualni influencerzy – niedoskonali tak jak my. Badając ze studentami ich świat, stworzyliśmy nawet pojęcie „hipercielesność”, które wskazuje na pewien paradoks. Wirtualni influencerzy mają wszystkie cielesne atrybuty, których „ludzcy” influencerzy starają się unikać: piegi, rozmazany makijaż, odstające rano włosy, pot na czole. Autentyczność zostaje więc oderwana od tego, czy coś jest prawdziwe, czy nie. Można ją przypisać czemuś, co nie istnieje.
Wciąż mamy podział na fikcję i rzeczywistość, bo podział na offline–online dawno upadł. Teraz zaciera się również podział na to, co żywe i martwe. Potwierdza to w książce „Alone Together” (Samotni razem) Sherry Turkle z MIT, która od dekad bada wpływ robotów na ludzi. Turkle dowodzi, że życie nie jest już nieodłącznie związane z biologią i ciałem, lecz łączy się z komunikacją i interakcjami.
Zaczęło się od tego, że Turkle spostrzegła, iż jej córka karmi zabawkę Tamagotchi, ale zapomina podlewać kwiatki. Doszła wtedy do wniosku, że najważniejszym elementem relacji są ciągłość kontaktu i symulacja emocji. A to mogą zapewnić robotyczne zabawki, takie jak Furbisie, które płaczą, śmieją się, domagają pieszczot i karmienia. Podobnie jak dla pierwszych użytkowników chatbotów dla dzieci nie ma większego znaczenia to, że nie są ludźmi. Efekt ELIZY działa, bo świadomość istoty wirtualnej traktowana jest jako płynna: w ważnych dla siebie momentach użytkownicy zakładają jej istnienie, w innych – np. gdy nie chcą czuć się oceniani – przyjmują jej nieistnienie. To, czy ktoś fizycznie istnieje, czy nie, przestaje mieć znaczenie.
Miquela, jedna z pierwszych wirtualnych influencerek, ma 8 mln obserwujących na Instagramie. Nagrała nawet płytę, której można posłuchać na Spotify. A takich przykładów są dziesiątki. Wirtualni influencerzy tworzeni są po to, żeby zarabiać kasę dla korporacji. A skutki społeczne są efektem ubocznym.
Wystarczająco żywa. Istnieje w jakimś świecie, jest aktywna, zarabia pieniądze, wchodzi w interakcje, może odpowiadać na pytania. Nie musi nawet odnosić się do moich wpisów. Liczy się już sam fakt, że dostanę lajka lub inny użytkownik skomentuje mój wpis. To stwarza więź emocjonalną, która wystarczy, żeby na mnie wpływać. Nie trzeba więc nawet wyposażać wirtualnych influencerów w sztuczną inteligencję.
Tak. Oczywiście w pracę nad postacią są zaangażowani nie tylko graficy, lecz także storytellerzy zatrudniani przez agencje, które świetnie wiedzą, co najbardziej grzeje i angażuje ludzi. Dzięki temu mogą stworzyć postać, której siła przekazu będzie znacznie większa niż „fizycznego” influencera, który ma swoje ograniczenia. Co sprawia, że VI są skuteczni? Symulowanie przyjaźni, ale i autentyczność. Tu znowu pojawia się paradoks: sztuczny twór jest mi bliższy niż rzeczywista osoba. A rozwój technologii powoduje, że niedługo nie będziemy w stanie rozróżnić, czy coś jest grafiką wygenerowaną przez AI, czy zdjęciem prawdziwego człowieka.
To jest jeden świat. Już teraz niektóre aplikacje oferują kontakt z „digital humans”. Jeśli będziemy mieli dobre okulary, a może nawet soczewki pozwalające na dostęp do metawersum, to nasza cielesność zupełnie się rozpłynie. W takiej przestrzeni z jednej strony spotkamy ludzi istniejących cyfrowo jako wymyślne stwory, z drugiej strony – postaci wyglądające jak prawdziwa osoba, w której osadzona jest sztuczna inteligencja.
Tak. Był taki odcinek serialu „Black Mirror”, w którym dwóch przyjaciół spotkało się w grze. Jeden z nich był tam kobietą. Zaczęli uprawiać seks i okazało się, że w przestrzeni cyfrowej emocje są równie prawdziwe jak w fizycznym świecie. Ale i całkiem inne.
No właśnie. Awatary w metawersum są dla nas tak przekonujące, że przekraczają tzw. dolinę niesamowitości.
Trudno zbudować robota, który przejdzie tę dolinę i oszuka nas, że jest człowiekiem. Konieczna jest odpowiednia faktura skóry, włosów, paznokci, temperatura ciała. W metawersum te bariery znikają. Wirtualni influencerzy są już tak podobni do ludzi, że wierzymy w ich prawdziwość.
Nasz mózg nieustannie analizuje, co jest żywe, a co martwe. To pozostałość po czasach, kiedy byliśmy łowcami zbieraczami. Dwa lata temu jedna z koreańskich firm medialnych pokazała matce przestrzennego awatara córki, która zmarła w wieku siedmiu lat. Można to zobaczyć na YouTube – kobieta nie chciała przerwać tego doświadczenia.
Taki awatar może zatrzymać nas w nieustannej żałobie.
W odróżnieniu od sztucznej inteligencji nasz czas jest skończony. Nasza doba trwa 24 godziny i tego nie zmienimy. Jeśli będę poświęcała godzinę czy dwie wirtualnej postaci, to tego czasu nie poświęcę już drugiemu człowiekowi. A proces wytwarzania kultury polega m in. na tym, że ze sobą dyskutujemy. Umasowienie wirtualnych awatarów może nas zamknąć w klatce. Nie będziemy mieli potrzeby, aby z niej wychodzić, bo jej działanie utrzyma nas w hedonii.
Jaką mogę mieć wtedy motywację? Każdemu człowiekowi potrzebny jest czasem przyjaciel, który powie: „hej, robisz źle!”. Tymczasem wirtualny influencer będzie podsycał nasz narcyzm, nieustannie nas chwaląc. Jego celem jest zatrzymać nas przy sobie. Kontakt z AI rodzi pytania: w jaki sposób rozwój technologii wpływa na intymność? Czy nowe formy relacji – z chatbotami, wirtualnymi influencerami – będą odpowiedzią na naszą samotność i potrzebę bliskości?
Podpowiedzi można szukać w popkulturze. W filmie „Blade Runner 2049” bohater żyje z hologramem. W „Her” Spike’a Jonesa Theodor, postać grana przez Joaquina Phoenixa, ciągle chodzi ze słuchawką w uchu, bo słyszy w niej wirtualną dziewczynę. Oba filmy sugerują, jaki jest koszt takich zmian – a jest nim potworna samotność.
Faktycznie dla Theodore’a problemem nie był brak fizycznego ciała, lecz brak wyłączności. Myślę, że Jones udzielił bezcennej lekcji przyszłym producentom asystentek cyfrowych. Pozwolił im zaoszczędzić miliardy dolarów.
Tak już się dzieje: celebryci robią swoje cyfrowe duplikaty. Firma Forever Voices wytworzyła np. cyfrowe, głosowe klony Taylor Swift, Kanye Westa i Steve'a Jobsa. Influencerka Caryn Marjorie używa klona AI (CarynAI) do rozmów audio z fanami. Awatar replikuje jej wizerunek, głos i osobowość, co pozwala odbiorcom poczuć się tak, jakby komunikowali się z „żywą” influencerką. Kosztuje to dolara za minutę. Już w pierwszym tygodniu od premiery Caryn Marjorie zarobiła w ten sposób 72 tys. dol.
Aż 25 proc. dziewcząt w grupie wiekowej 18–24 lat śledzi wirtualnych influencerów. W grupie 55 plus większość nie wie o istnieniu takiego zjawiska. Dla nas – osób osadzonych w kulturze pisma – AI może być fajnym narzędziem, ale sądzę, że do wielu rozwiązań będziemy podchodzić sceptycznie. Natomiast cyfrowi nomadzi, którym przyjemności nie zapewniają już przyjaciele czy spacery z psem, lecz polubienia na Instagramie, są już w pewnym sensie uzależnieni od dawki emocji, która się wiąże z doświadczeniami cyfrowymi. A teraz wyobraźmy sobie, że możemy prowadzić z AI rozmowy, w których słyszymy same pochwały i słowa akceptacji. Widzę w tym zagrożenie. Młodzi, którzy nie mają wieloletnich, bliskich relacji, dostaną ich substytuty. Wyrastające w kulturze mediów społecznościowych pokolenie Alfa będzie się mierzyć z problemem odróżniania prawdy od fałszu, realności od iluzji. AI czy VI bramę rozgrzewają nasze emocje i wyobrażenia. Mój postulat to zapewnienie „bezpieczeństwa antropologicznego”, czyli świadomości, z kim rozmawiamy i jakie ten ktoś ma interesy.
Reakcją na przeciążenia poznawcze może być wycofanie, czyli całkowite odrzucenie AI. Przeciążonymi informacyjnie osobami jest też łatwo manipulować, przekierować ich uwagę na zupełnie inne, nieistotne tory. To np. dyskusja o tym, czy AI doprowadzi do zagłady ludzkości.
Tymczasem nie rozmawiamy o podstawowych kwestiach.
O przyszłości demokracji. Zakłada się, że kilka procent społeczeństwa zdobędzie wiedzę i umiejętność posługiwania się technologią, a reszta pozostanie biernymi odbiorcami. Już teraz widzę, że ludzie mają ogromny problem ze zrozumieniem zasad panujących w świecie cyfrowym. Kiedy na warsztatach pokazuję plansze o wirtualnych influencerach, myślą, że to bajka. A to narzędzia, które można wykorzystać do manipulacji. VI wpływają nie tylko na decyzje zakupowe, lecz także na sposób myślenia – również o polityce. Bermuda, wirtualna influencerka i modelka, zachęcała do głosowania na Donalda Trumpa. Nie ma dobrej technologii i złej technologii, ale możemy ocenić jej architekturę. A ta obecna prowadzi nas do atomizacji.
To prawda, dlatego coraz częściej akademicy mówią o nich „media syntetyczne”. Włoski filozof Roberto Esposito jeszcze przed ich pojawieniem się pisał o procesach, które prowadzą do „odspołecznienia” (immunitas). Teraz wszystko idzie w tym kierunku. Wirtualne relacje prowadzą do narcyzmu cyfrowego, który przejawia się m.in. w niechęci do zawierania głębszych relacji w świecie rzeczywistym. To forma autoafirmacji i samozadowolenia. Media syntetyczne będą fast foodem dla mózgu. W głodzie społecznym będziemy jeść obrazki. I będzie to bardzo niezdrowa dieta. ©Ⓟ