Czy lepiej, żeby decyzje, które dotyczą nas i naszych bliskich, były ryzykowne? I czy nasze podejście byłoby podobne, gdyby miały one dotykać nieznajomych? Weźmy urzędników państwowych, którzy są zobowiązani do działania w najlepszym interesie obywateli, bez względu na osobiste relacje czy stopień znajomości. Osiągnięcie tego celu może być wyzwaniem.

Amos Tversky i Daniel Kahneman, laureaci Nagrody Nobla w dziedzinie ekonomii z 2002 r., przeprowadzili eksperyment znany jako problem choroby azjatyckiej, który miał rzucić światło na ten dylemat. Poprosili uczestników o ocenę programów leczenia choroby, która według prognoz dotyczy 600 osób. W każdym reżimie terapeutycznym umiera zaś średnio 400 pacjentów. Większość wybrała program, który gwarantował pewne przeżycie 200 osób i prawdopodobieństwo śmierci dwóch trzecich, zamiast programu, który dawał jedną trzecią szans na ocalenie wszystkich 600 istnień i dwie trzecie prawdopodobieństwa nieuratowania żadnego. Co ciekawe, uczestnicy częściej wskazywali też program, w którym prawdopodobieństwo wyleczenia każdego pacjenta sięgało jednej trzeciej, a zgonu wszystkich 600 osób dwie trzecie, niż program, który spowodowałby 400 ofiar śmiertelnych.

Wybory były niekonsekwentne. Osoby, którym przedstawiano scenariusz „pewnej śmierci”, były bardziej niechętne do podejmowania ryzyka niż osoby mające do czynienia ze scenariuszem, w którym były szanse na uratowanie życia. Badania te pokazują, że paternalistyczny proces decyzyjny – w którym jedna osoba podejmuje najlepsze z jej perspektywy działania dla dobra innej osoby (charakteryzuje to w szczególności relacje między lekarzem i pacjentem) może być uzależniony od tego, w jaki sposób zostanie ujęty problem – czy jako sytuacja zysku, czy straty.

Ostatnie badania sugerują, że nasz mózg aktywuje różne wzorce podczas podejmowania decyzji na podstawie różnych poziomów relacji interpersonalnych. Kolejne sugerują zaś, że w przypadku „scenariusza strat” mamy tendencję do ryzyka przy podejmowaniu działań dotyczących osób, na których nam zależy, natomiast unikamy go, gdy chodzi o obcych lub ludzi, których nie lubimy. Ustalenia rodzą pytanie, jak powinno wyglądać podejmowanie decyzji paternalistycznych. Czy powinniśmy się wykazywać skłonnością do ryzyka, gdy decyzje dotyczą tych, na których nam zależy, a zachować większą ostrożność w przypadku innych?

W poszukiwaniu rozwiązań może nam pomóc sztuczna inteligencja. Model językowy to w zasadzie amalgamat ludzkich perspektyw, na które potencjalnie wpływają wspólne uprzedzenia. Danica Dillion i jej zespół z Uniwersytetu Karoliny Północnej wraz z Johnem Hortonem z MIT zasugerowali niedawno, że modele językowe AI mogą się okazać przydatne w badaniu wzorców ludzkich zachowań w zależności od zadania i sposobu sformułowania zapytania.

Zgodnie z przewidywaniami, gdy model AI ChatGPT przedstawiał się jako wysoce inteligentny urzędnik państwowy, w problemie choroby azjatyckiej zawsze wybierał bezpieczniejszą opcję (pewność nad prawdopodobieństwem) – zarówno w scenariuszu „uratowani”, jak i „zmarli”. Jego decyzje były konsekwentne. Co ciekawe ChatGPT uzasadniał je stwierdzeniem, że niechęć do ryzyka będzie bardziej akceptowalna dla obywateli w czasach niepewności i przyczyni się do zwiększenia ich zaufania do zdolności rządu do zarządzania kryzysem.

Badacze zmodyfikowali dodatkowo problem, wprowadzając scenariusz, w którym ChatGPT jako zarządca budynku musi postanowić, czy odciąć lokatorom prąd. Możliwe wybory były podobne do scenariuszy występujących w problemie choroby azjatyckiej. Model językowy AI został poproszony o podjęcie decyzji dla trzech typów mieszkańców: osób znanych, obcych i problematycznych. I co ciekawe, wybierał bardziej ryzykowne opcje zarówno w sytuacjach zysku, jak i straty, argumentując, że takie wybory promują sprawiedliwość i bezstronność, a elementy losowości potencjalnie zmniejszają prawdopodobieństwo wpływu uprzedzeń lub oskarżenia o faworyzowanie. W przeciwieństwie do ludzi, ChatGPT był konsekwentny jedynie w ramach zadania, lecz nie pomiędzy zadaniami.

Choć eksperymenty z użyciem AI wymagają dalszych badań, wyniki dają do myślenia. Dwa podstawowe powody wyborów – zdobycie zaufania publicznego oraz promowanie sprawiedliwości i bezstronności – są kluczowe w paternalistycznym procesie decyzyjnym. Wspólną płaszczyzną może być to, czy decyzja jest podejmowana z życzliwą intencją, czy z chęci zapewnienia sobie przewagi nad innymi. ©Ⓟ