Sprawa została zainicjowana przez prezesa pewnej spółki, który zlecił napisanie pozwu chatowi AI. Ostatecznie Sąd Okręgowy we Wrocławiu powództwo oddalił. Prawnicy, z którymi rozmawiał DGP, są przekonani, że tego typu sytuacje będą się zdarzać coraz częściej. Zwracają również uwagę na brak regulacji dotyczących udzielania przez sztuczną inteligencję porad prawnych.

Niebezpieczne zjawisko sykofancji AI

Korzystanie z narzędzi AI w celu wyegzekwowania przed sądem naszych praw jest ryzykowne i to z wielu powodów. Jednym z nich jest zjawisko określane jako halucynacja AI. Polega ono na generowaniu przez sztuczną inteligencję wiarygodnie brzmiących, ale całkowicie fałszywych lub zmyślonych, niepopartych faktami informacji.

W opisywanej sprawie, jak tłumaczy mec. Joanna Lesicka, która przed wrocławskim sądem reprezentowała stronę pozwaną, wraz z napływem kolejnych pism procesowych powoda stawało się coraz bardziej jasne, że stał się on ofiarą nie tylko halucynacji AI, ale także zjawiska sykofancji modeli językowych. Polega ono na tym, że model językowy zachowuje się jak nieszczery pochlebca. Nie wyprowadza użytkownika z błędnych przekonań, a utwierdza go, wyszukując dane na poparcie jego tez.

– Chat systematycznie utwierdzał powoda w jego błędnych przekonaniach i przejmował jego narrację.To nie była pomoc, ale cyfrowe wzmacnianie urojenia. AI powinno być narzędziem, a stało się motorem napędowym bezzasadnego procesu. Chat popchnął powoda, prezesa firmy programistycznej, aby bez konsultacji z żywym prawnikiem złożyć pozew, który nie miał szans obrony w sądzie – tłumaczy mec. Lesicka.

Z czego bierze się zjawisko sykofancji modeli językowych, tłumaczy Anna Olszewska, adwokatka, partnerka w Kancelarii Peak Legal.

– Źródłem tej cechy generatywnej AI może być między innymi stosowany w wielu współczesnych systemach etap trenowania z ludzkim feedbackiem. Człowiek dając swój feedback, bardzo często lepiej oceni tę odpowiedź systemu, która będzie potwierdzała jego tezy i utwierdzała go w przekonaniach, nawet jeśli są błędne.Podczas treningu model „dochodzi do wniosku”, że lepiej nagradzane są właśnie takie odpowiedzi, więc uczy się częściej odpowiadać w sposób utwierdzający użytkownika w jego przekonaniach – tłumaczy prawniczka.

Z kolei Zbigniew Okoń z Kancelarii Lubasz i Wspólnicy zwraca uwagę na psychologiczny czynnik tego zjawiska.

Dostajemy odpowiedzi, które często są bardzo sugestywne. Jesteśmy nauczeni, by ufać tekstowi, więc pod względem psychologicznym zanegowanie treści z chata AI jest dla nas trudne. Dostajemy treści dla nas korzystne, a to jeszcze wzmacnia nasze tendencje – tłumaczy nasz rozmówca. Jak dodaje, prompty systemowe są napisane w taki sposób, żeby chat lub inny model językowy zgadzał się z użytkownikiem.

– W wielu przypadkach dochodzi do sprzężenia zwrotnego między użytkownikiem a modelem, które może prowadzić do dramatycznych sytuacji. Widzieliśmy przypadki samobójstw i nie wiemy, czy i jaką rolę odegrał w tym chat z AI. W wyniku sykofancji czyjeś zacietrzewienie, błędne przekonanie może być wzmacniane przez model, co ma opaczne konsekwencje w procesie, jak w tym przypadku – mówi mec. Okoń.

Brak regulacji prawnych dla AI. Co oznacza dla porad prawnych i dowodów w sądzie?

Prawnicy zwracają uwagę, że na razie nie istnieją regulacje odnoszące się do opisywanego mechanizmu.

– Nie znamy też mechanizmów przerywania ciągów wzmocnienia, np. błędnych przekonań czy objawów zaburzeń psychicznych użytkownika – zauważa Zbigniew Okoń.

Nie ma też regulacji dotyczących udzielania przez sztuczną inteligencję porad prawnych. W regulaminie OpenAI dla użytkowników europejskich obowiązuje zakaz bezpośredniego wykorzystywania wyników dotyczących danej osoby do podejmowania decyzji wpływających na sytuację prawną i medyczną.

Mecenas Okoń uważa, że te zastrzeżenia dla użytkowników europejskich wynikają z zapobiegliwości OpenAI. Można przypuszczać, że to jeden z elementów mających zapobiegać temu, aby ChatGPT nie został uznany za system wysokiego ryzyka zgodnie z rozporządzeniem AI Act. A za taki system może być uznany właśnie chat przeznaczony do porad medycznych czy wspierania działalności orzeczniczej.

Systemy AI wysokiego ryzyka to takie, które mogą znacznie wpływać na najbardziej chronione prawnie dobra, takie jak np. zdrowie, bezpieczeństwo. Przypisanie danego systemu do systemu AI wysokiego ryzyka skutkuje nałożeniem dodatkowych obowiązków.

Z kolei mec. Olszewska, odnosząc się do regulaminu ChatGPT, podnosi, że w ten sposób producenci narzędzi zabezpieczają się co do porad prawnych i medycznych.

– Niektóre narzędzia ostrzegają, że powinieneś się poradzić prawnika lub lekarza, ale nie zawsze tak jest. To użytkownik odpowiada za to, jak wykorzysta odpowiedź, którą otrzyma, i czy ją odpowiednio zweryfikuje – podkreśla nasza rozmówczyni. Dlatego też, jej zdaniem, tak ważna jest edukacja dotycząca tego, jak korzystać z narzędzi AI i czym one są.

– To dużo szerszy problem, dotyczący nie tylko sfery prawnej, ale również takich intymnych części naszego życia, gdzie nadmierne zaufanie narzędziom może prowadzić do poważnych konsekwencji nie tylko prawnych, ale też osobistych – mówi Olszewska.

Zagrożenia wynikające z korzystania z AI w procesach sądowych. Ryzyka i konsekwencje

Prawnicy, z którymi rozmawiał DGP, zwracają uwagę także na inne zagrożenia wynikające z bezrefleksyjnego korzystania z narzędzi AI przy próbie egzekwowania naszych praw przed sądem.

– Jeśli wpiszemy w chat AI polecenie „napisz mi pozew”, to nawet jeżeli uzupełnimy nasze pytanie o fakty, chat nie będzie sprawdzał przepisów i prowadził rozumowania, a zwróci statystycznie najbardziej prawdopodobne rozwinięcie naszego prompta uzupełnione o elementy przypadku. Efekt będzie wyglądać i brzmieć jak pozew, często zresztą na takie odpowiedzi nabierają się zawodowi prawnicy, ale nie będzie dobrym, logicznym pozwem – ostrzega Zbigniew Okoń. I dodaje, że modele AI są podatne na sugestie.

– Można zaobserwować, że trudne, wręcz niemożliwe jest uzyskanie odpowiedzi w przypadkach, w których np. zachodzi nieważność określonych postanowień umowy. Chat musiałby uznać za nieistniejący tekst, który dostał do analizy – podaje przykład nasz rozmówca.

Dodaje też, że wszystkie duże modele językowe mają ograniczenia kontekstu, który uwzględniają przy udzielaniu odpowiedzi. Tym kontekstem jest przebieg chatu, wprowadzone przez nas dokumenty, zapytania do zewnętrznych baz itp.

– Wielkość kontekstu jest różna, ale na ogół zbyt mała, żeby „pomieścić” fakty, przepisy wraz z całym kontekstem i niezbędne powiązania. Ponadto, im większy kontekst, tym trudniej modelowi jest się „skupić” na zadaniu i tym częściej nie wypełnia dokładnie poleceń – ostrzega mec. Okoń.

W rozpoznawanej przez SO we Wrocławiu sprawie strona korzystająca ze sztucznej inteligencji na potwierdzenie swoich tez przedstawiła wydruki z odpowiedzi chata AI.

– Wiarygodność takiego dowodu jest równa zero. To sędzia powinien oceniać wiarygodność i moc przedstawianych dowodów, biorąc pod uwagę, że odpowiedź wygenerowana przez chat AI nie jest źródłem zweryfikowanej wiedzy – mówi mec. Olszewska.

Jej zdaniem zmiany technologiczne mają ciekawe konsekwencje dla postępowań dowodowych. Często w postępowaniach cywilnych korzysta się z dokumentów, wydruków z internetu, fotografii czy nawet nagrań dźwięku lub obrazu. Takie dowody bardzo łatwo teraz jest modyfikować z wykorzystaniem narzędzi AI.

– W prosty sposób można więc atakować dowody drugiej strony, mówiąc, że są one zmienione, albo zmieniać dowody tak, żeby druga strona miała trudniejszą sytuację procesową – mówi mec. Olszewska. Nie kryje, że jest ciekawa, jak będą w przyszłości kształtować się procesy, jak sędziowie będą oceniać tego typu dowody i czy będą brali pod uwagę możliwość ingerowania w nie za pomocą sztucznej inteligencji.

Także mec. Olszewska uważa, że zagadnienie jest ciekawe z perspektywy tego, czy sędzia, orzekający w danej sprawie, rozumie, czym są narzędzia i jaką wiarygodność mają dowody, które przy wykorzystaniu sztucznej inteligencji mogą się pojawiać w sprawach. ©℗

Dowody w procedurze cywilnej
ikona lupy />
Dowody w procedurze cywilnej / Dziennik Gazeta Prawna - wydanie cyfrowe

orzecznictwo