Odpowiedzi chatu GPT nie mogą być dowodami w sprawie, a pytanie sztucznej inteligencji o porady prawne, bez konsultacji z prawnikiem, może pchnąć nas do złożenia pozwu, który nie ma szans obrony w sądzie. Przekonał się o tym mężczyzna, który zlecił AI napisanie pozwu. Prezes firmy programistycznej domagał się odszkodowania za nieudzielenie mu zamówienia. Pozew i pisma procesowe sporządził za pomocą Chatu GPT. Jak wskazuje pełnomocnik pozwanego mecenas Joanna Lesicka, pozew został złożony razem z załącznikami, które według powoda miały być dowodami, a w praktyce były wydrukami jego zapytań do sztucznej inteligencji.

- W pozwie odwoływał się do tych załączników i pisał, że sąd nie ma wyboru, i musi dostosować się do tego, co ustaliło AI. Niestety, Chat GPT odwoływał się do przepisów nie tej ustawy, którą powinien stosować. W sprawie mieliśmy do czynienia z zasadą konkurencyjności i kodeksem cywilnym, a sztuczna inteligencja wmawiała powodowi, że powinna mieć zastosowanie ustawa Prawo zamówień publicznych (PZP). Zresztą, AI, cytując przepisy PZP, delikatnie je zmieniała, tak aby one wprost odpowiadały argumentacji, jaką powód wysnuwał – relacjonuje Lesicka.

Argumentacja AI sądu nie przekonała

Ostatecznie Sąd Okręgowy we Wrocławiu oddalił powództwo o odszkodowanie. – Powód nie spełniał warunków formalnych zapytania ofertowego. Twierdził, że skoro umie pisać kod w technologii flutter, która umożliwia tworzenie aplikacji mobilnych na Androida i na iOS, to jest to jednoznaczne z umiejętnością publikacji aplikacji w AppStore. Jednak nie miał ani jednej takiej aplikacji na koncie, co było konieczne do wykazania – tłumaczy mec. Lesicka.

W motywach ustnych sąd odniósł się m.in. do wykorzystania Chatu GPT, wskazując "że treści generowane przez AI nie są dla sądu dowodem, a jedynie mogą służyć powodowi do tego, aby móc formułować swoje argumenty".

Czy warto zasięgać porad prawnych od sztucznej inteligencji?

Adwokatka, partnerka w kancelarii Peak Legal, Anna Olszewska ocenia, że korzystanie z powszechnie dostępnych systemów generatywnej sztucznej inteligencji jest ryzykowne. - Szczególnie jeśli chcemy pozyskać pewną, ustrukturyzowaną wiedzę, a nie tylko brzmieć przekonująco – podkreśla.

Jej zdaniem, pragnienie oparcia się o wiedzę podawaną nam przez narzędzia AI jest spowodowane głębokim niezrozumieniem, jak one funkcjonują i czym są wyniki, które osiągamy. - Wyniki brzmią bardzo prawdopodobnie, ale przecież narzędzia nie rozumieją, co napisały. Nie weryfikują samodzielnie prawdziwości wygenerowanych treści. Modele generatywnej AI na podstawie danych, na których były trenowane, przewidują po prostu najbardziej prawdopodobne sekwencje słów. A w pozwie musimy się przecież oprzeć o konkretny zbiór sprawdzonych faktów, orzecznictwa i źródeł prawa – mówi adwokat.

Z kolei radca prawny dr Zbigniew Okoń z Kancelarii Lubasz i Wspólnicy podkreśla, że przy korzystaniu z modeli językowych do analizy tekstu, należy uważać, jak formułujemy pytania, bo sugestia zawarta w pytaniu może wpłynąć na odpowiedź.

Czy odpowiedzi chatu GPT mogą być dowodami w sprawie sądowej?

„Odpowiedzi chatu GPT nie mogą być dowodami w sprawie”. Treści generowane przez AI mogą służyć jedynie do formułowania argumentów strony.

Co orzekł Sąd Okręgowy we Wrocławiu w sprawie pozwu o odszkodowanie przygotowanego przez chat GPT?

Sąd Okręgowy we Wrocławiu oddalił powództwo o odszkodowanie. Powód nie spełniał warunków formalnych zapytania ofertowego.

Jakie błędy popełniła sztuczna inteligencja w sprawie nieudzielonego zamówienia na oprogramowanie?

Sztuczna inteligencja myliła Kodeks cywilny z ustawą Prawo zamówień publicznych (PZP) i „delikatnie zmieniała przepisy” na korzyść powoda.

Dlaczego według sądu powód nie spełniał warunków formalnych zapytania ofertowego?

Powód utożsamiał znajomość flutter z umiejętnością publikacji w Appstore, lecz „nie miał ani jednej takiej aplikacji na koncie”, co było wymagane.

Czy korzystanie z generatywnej AI jest bezpieczne według Anny Olszewskiej?

Anna Olszewska ocenia, że korzystanie z powszechnie dostępnych systemów generatywnej sztucznej inteligencji jest ryzykowne. „Wyniki brzmią bardzo prawdopodobnie, ale […] narzędzia nie weryfikują samodzielnie prawdziwości”. W pozwie trzeba oprzeć się o konkretny zbiór sprawdzonych faktów, orzecznictwa i źródeł prawa.