To właśnie on stworzył jedną z najbardziej kontrowersyjnych konstrukcji ostatnich lat – kapsułę Sarco. Teraz mówi wprost: psychiatrów można zastąpić algorytmem.

Od prawa do godnej śmierci do algorytmu, który ma decydować za człowieka

Dla jednych to obrona absolutnej wolności jednostki. Dla innych – niebezpieczny eksperyment społeczny, w którym technologia wchodzi w obszar, do którego nie ma dostępu nawet państwo. Philip Nitschke, były lekarz, humanista, pisarz i aktywista, od ponad 30 lat powtarza jedno zdanie: decyzja o śmierci należy do człowieka, nie do lekarza.

Najpierw walczył o legalizację eutanazji dla osób terminalnie chorych. Z czasem jego stanowisko się zaostrzyło. Dziś mówi już nie o chorobie, lecz o prawie do samostanowienia, niezależnie od diagnozy. W tym miejscu na scenę wchodzi technologia.

Czym jest kapsuła Sarco i dlaczego jej użycie wywołało międzynarodową burzę

Sarco to kapsuła przypominająca futurystyczny pojazd. Osoba, która do niej wchodzi, sama uruchamia proces prowadzący do śmierci – bez lekarza, bez personelu medycznego, bez igieł. Projekt od początku miał jeden cel: wyeliminować człowieka z roli „tego, który daje zgodę”.

Konstrukcja wzbudza sprzeciw nie tylko ze względów etycznych, ale też prawnych. Gdy kapsuła została użyta w 2024 roku Szwajcarii przez 65-letnią Amerykanką, reakcja była natychmiastowa: śledztwo, zatrzymania, międzynarodowa krytyka. I jedno zasadnicze pytanie: kto ponosi odpowiedzialność?

„Psychiatrzy się nie zgadzają” – dlatego twórca Sarco chce zastąpić ich algorytmem

Najbardziej kontrowersyjna nie jest jednak sama kapsuła - o niej wiemy już od dobrych kilku lat. Najwięcej emocji budzi nowy pomysł jej twórcy. Zgodnie z obowiązującymi przepisami w krajach, które dopuszczają wspomagane umieranie, kluczowa jest ocena zdolności psychicznej. Zazwyczaj dokonują jej psychiatrzy.

Nitschke twierdzi, że ten system jest wadliwy. Jego argumenty są proste: różni lekarze wydają różne opinie, a decyzja bywa uzależniona od światopoglądu specjalisty. Tym samym cały proces jest nieprzewidywalny i nierówny. W jego wizji rolę tę miałby przejąć algorytm oparty na sztucznej inteligencji.

Jak AI miałaby decydować, czy ktoś ma „zdolność”, by umrzeć

Według zapowiedzi, użytkownik rozmawiałby z cyfrowym awatarem. System zadawałby pytania, analizował odpowiedzi, sposób wypowiedzi, spójność myślenia. Na tej podstawie AI miałaby ocenić, czy dana osoba posiada tzw. zdolność decyzyjną. Jeśli tak – otwiera się 24-godzinne „okno decyzji”. Po jego upływie procedurę trzeba przejść od nowa.

To moment, w którym nawet osoby neutralne wobec eutanazji zaczynają mieć wątpliwości. Bo jeśli algorytm się myli – nie ma już komu złożyć odwołania.

Dlaczego algorytm może się pomylić w ocenie decyzji o śmierciyła

Krytycy zwracają uwagę na coś jeszcze: AI uczy się na danych z przeszłości. A te zawierają uprzedzenia, luki i nierówności. W tym kontekście pojawia się pytanie, czy algorytm potrafi odróżnić świadomą decyzję od kryzysu psychicznego. Eksperci od automatyzacji podnoszą alarm: oddanie takiej władzy systemowi, którego działania nie da się w pełni wyjaśnić, może osłabić, a nie wzmocnić autonomię człowieka.

Dlaczego dyskusja o AI i decyzji o śmierci wybucha właśnie teraz

Moment nie jest przypadkowy. W ostatnich latach AI coraz częściej wchodzi w relacje z ludźmi w kryzysie. Pojawiły się już sprawy sądowe, w których rodziny zarzucają chatbotom brak reakcji na sygnały samobójcze. W jednym z głośnych przypadków w tle pojawiła się firma OpenAI, choć sama technologia nie była projektowana do takich rozmów. To wszystko sprawia, że propozycja, by AI nie tylko rozmawiała, ale decydowała, trafia na wyjątkowo wrażliwy grunt społeczny.

Europa mówi „stop”, ale pomysł nie znika

Choć nawet w liberalnej Szwajcarii projekt Sarco został zakwestionowany, jego twórca nie wycofuje się. Zapowiada nowe wersje kapsuły, w tym model dla dwóch osób. Równolegle rozwijane są systemy AI, które – przynajmniej na razie – mają działać „obok” lekarzy, a nie zamiast nich. To jednak tylko etap przejściowy. Cel jest jasny: pełna automatyzacja decyzji.

Co oznacza świat, w którym algorytmy podejmują decyzje graniczne

Dyskusja wokół Sarco i AI nie dotyczy wyłącznie eutanazji. W tle pojawiają się pytania, które wrócą przy innych technologiach:

  1. Czy algorytm może mieć większą władzę niż lekarz?
  2. Kto odpowiada za błąd systemu?
  3. Gdzie kończy się pomoc, a zaczyna presja?

To dlatego sprawa wykracza daleko poza środowiska aktywistów. Nawet jeśli kapsuła Sarco nigdy nie trafi do powszechnego użytku, idea już zaczęła żyć własnym życiem. Coraz więcej decyzji granicznych – kredyt, leczenie, zwolnienie z pracy – podejmują algorytmy. Śmierć była dotąd ostatnią granicą. Dziś ktoś właśnie próbuje ją przesunąć.