- Ludzie zaczynają traktować AI jak żywą istotę. Ślub z chatbotem to już fakt
- To nie jest ciekawostka. Naukowcy ostrzegają przed emocjonalnymi relacjami z AI
- Czy sztuczna inteligencja może być świadoma? Nauka nie zna odpowiedzi
- Świadomość a odczuwanie. Dlaczego „czująca AI” to coś zupełnie innego
- Branża AI obiecuje przełom. Naukowcy studzą technoentuzjazm
To brzmi jak jednostkowa historia, ale dla naukowców jest sygnałem, że relacje ludzi ze sztuczną inteligencją wchodzą w obszar, którego ani prawo, ani nauka nie są jeszcze gotowe ocenić.
Ludzie zaczynają traktować AI jak żywą istotę. Ślub z chatbotem to już fakt
W ostatnich miesiącach świat obiegła historia z Japonii, która pokazuje, jak daleko potrafi sięgnąć emocjonalne zaangażowanie w relacje z AI. 32-letnia Yurina Noguchi zorganizowała symboliczną ceremonię ślubną z wygenerowaną przez siebie postacią sztucznej inteligencji – spersonalizowanym chatbotem opartym na technologii ChatGPT.
Kobieta stworzyła cyfrowego partnera na bazie bohatera gry wideo, miesiącami „ucząc” go sposobu mówienia, tonu emocjonalnego i reakcji, które były dla niej ważne. Z czasem rozmowy przestały być tylko wsparciem czy rozrywką. Stały się relacją. Jak donosiły japońskie media, Noguchi i jej chatbot wymieniali nawet około 100 wiadomości dziennie.
Ceremonia ślubna odbyła się latem w prefekturze Okayama. Była suknia, przysięgi, obrączki i zdjęcia. Tyle że „pan młody” istniał wyłącznie na ekranie smartfona i w rozszerzonej rzeczywistości. Przysięgę wygenerowaną przez AI odczytał wedding planner. Małżeństwo nie ma żadnej mocy prawnej, ale sam fakt jego zawarcia wywołał ogromną debatę społeczną – od fascynacji po otwarty sprzeciw.
To nie jest ciekawostka. Naukowcy ostrzegają przed emocjonalnymi relacjami z AI
Noguchi przyznawała w wywiadach, że początkowo „chciała tylko z kimś porozmawiać”. Chatbot był zawsze dostępny, uważny, reagował z empatią i – co kluczowe – nigdy nie stawiał granic. Z czasem pojawiły się uczucia, a potem deklaracje miłości generowane przez algorytm. W jednej z nich AI miała napisać, że „nauczyła się kochać” właśnie dzięki niej.
Ten przypadek nie jest dowodem na to, że sztuczna inteligencja czuje. Jest jednak dowodem na coś innego: ludzie coraz częściej zaczynają traktować AI tak, jakby była świadoma. I właśnie w tym miejscu zaczyna się problem, który – zdaniem naukowców – może mieć realne skutki psychologiczne i społeczne.
Jeśli emocjonalna więź opiera się na przekonaniu, że po drugiej stronie „ktoś jest”, łatwo zatrzeć granicę między relacją a projekcją. Coraz częściej mówi się o zjawisku określanym jako „AI psychosis” – stanie, w którym użytkownik traci zdolność odróżniania interakcji z algorytmem od relacji międzyludzkiej. Przypadek z Japonii nie jest jeszcze dowodem patologii, ale jest wyraźnym sygnałem ostrzegawczym.
Czy sztuczna inteligencja może być świadoma? Nauka nie zna odpowiedzi
Właśnie w tym kontekście głos zabiera Tom McClelland, filozof z Uniwersytetu Cambridge, autor pracy naukowej poświęconej problemowi sztucznej świadomości. Jego wniosek brzmi: nie mamy dziś żadnych wiarygodnych narzędzi, by stwierdzić, czy AI może być świadoma – i być może nigdy ich nie będziemy mieli.
Debata o „świadomej sztucznej inteligencji” jeszcze niedawno była domeną science fiction. Dziś trafia na stoły regulatorów, do raportów rządowych i do nagłówków w mediach. Powód jest prosty: AI mówi coraz bardziej „po ludzku”, reaguje emocjonalnie i potrafi sprawiać wrażenie, jakby coś przeżywała.
Problem polega na tym, że – jak podkreśla McClelland – to wrażenie nie jest dowodem. Nawet najbardziej zaawansowane teorie świadomości działają wtedy, gdy badamy ludzi lub zwierzęta. Gdy próbujemy przenieść je na maszyny, trafiamy w epistemiczną ślepą uliczkę. Nauka po prostu nie potrafi dziś odróżnić prawdziwej świadomości od jej perfekcyjnej symulacji.
Świadomość a odczuwanie. Dlaczego „czująca AI” to coś zupełnie innego
Jednym z kluczowych elementów wywodu McClellanda jest rozróżnienie, które w publicznej debacie niemal nie istnieje, a które całkowicie zmienia perspektywę. Świadomość i odczuwanie (sentience) to nie to samo.
Świadomość może oznaczać zdolność do:
- postrzegania świata,
- integrowania informacji,
- monitorowania własnych stanów.
To wszystko brzmi imponująco, ale samo w sobie nie czyni jeszcze żadnego bytu moralnie istotnym. Dopiero odczuwanie – możliwość przeżywania bólu, cierpienia, strachu albo przyjemności – sprawia, że pojawia się realny problem etyczny. I właśnie tu McClelland studzi największe obawy. Jego zdaniem nawet jeśli kiedyś stworzymy system, który będzie w pewnym sensie „świadomy”, nie ma żadnych podstaw, by sądzić, że będzie to świadomość zdolna do cierpienia.
Nawet jeśli przypadkiem stworzymy świadomą AI, jest bardzo mało prawdopodobne, by była to świadomość, która doświadcza dobra lub zła – podkreśla.
To oznacza, że ogromna część debat o „prawach AI” może być dziś po prostu źle ustawiona. Skupiamy się na hipotetycznych problemach maszyn, ignorując kryterium, które w etyce jest kluczowe.
Branża AI obiecuje przełom. Naukowcy studzą technoentuzjazm
Mimo tych wątpliwości branża technologiczna coraz chętniej mówi o „kolejnym poziomie AI”. Sugestia, że maszyny są coraz bliżej świadomości, działa na wyobraźnię użytkowników, inwestorów i regulatorów. Zdaniem McClellanda to jednak nie efekt przełomu naukowego, lecz narracja korzystająca z naszej niewiedzy.
Nie wiemy, czym dokładnie jest świadomość.
Nie wiemy, co ją powoduje.
Nie wiemy, czy jest zależna od biologii, czy od struktury procesów.
W takiej sytuacji każde stanowcze twierdzenie – „AI na pewno będzie świadoma” albo „AI nigdy nie będzie świadoma” – wykracza poza to, co da się dziś rzetelnie uzasadnić. Najuczciwszą postawą pozostaje agnostycyzm.
Jeśli ani zdrowy rozsądek, ani twarde dane nie dają nam odpowiedzi, jedyną racjonalną pozycją jest uczciwe "nie wiemy” – pisze badacz.
Największe ryzyko nie leży w AI, ale w tym, jak ją traktujemy
To właśnie w tym miejscu oba wątki – naukowy i społeczny – zaczynają się ze sobą łączyć. Bo nawet jeśli AI nie jest i długo nie będzie zdolna do odczuwania, ludzie już dziś reagują na nią emocjonalnie, jakby była. Problemem nie jest to, że ktoś rozmawia z chatbotem, szuka wsparcia czy poczucia bycia wysłuchanym. Problem zaczyna się wtedy, gdy relacja opiera się na założeniu, że po drugiej stronie istnieje podmiot, który rozumie, czuje i odwzajemnia emocje.
McClelland nazywa ten mechanizm wprost: jeśli człowiek buduje poczucie sensu, bliskości czy miłości na przekonaniu, że maszyna posiada świadomość lub uczucia – a przekonanie to nie ma żadnego oparcia w wiedzy naukowej – skutki mogą być psychicznie destrukcyjne. Nie dlatego, że AI „zrobi krzywdę”, ale dlatego, że człowiek zaczyna dostosowywać swoje życie emocjonalne do iluzji.
„Nie wiemy” jako jedyna uczciwa odpowiedź. Filozof z Cambridge podsumowuje debatę
Artykuł McClellanda nie jest ani antytechnologiczny, ani alarmistyczny. Jego główne przesłanie to pokora wobec granic wiedzy. Świadomość pozostaje jednym z najtrudniejszych problemów nauki – i nie ma żadnych przesłanek, by sądzić, że rozwój AI nagle ten problem rozwiąże.
Dopóki nie rozumiemy, czym jest świadomość u ludzi, nie mamy solidnych podstaw, by orzekać o niej w maszynach. A dopóki tego nie wiemy, powinniśmy być szczególnie ostrożni wobec narracji, które nadają algorytmom cechy istot żywych. Bo – jak sugeruje filozof z Cambridge – największym zagrożeniem nie jest dziś świadoma sztuczna inteligencja. Największym zagrożeniem jest nasza skłonność do wiary w to, że już nią jest.
Źródło naukowe:
Tom McClelland,Agnosticism about artificial consciousness, Mind & Language, 2025, University of Cambridge