Odpowiedzi chatu GPT nie mogą być dowodami w sprawie, a pytanie sztucznej inteligencji o porady prawne, bez konsultacji z prawnikiem, może pchnąć nas do złożenia pozwu, który nie ma szans obrony w sądzie.
Przekonał się o tym mężczyzna, który zlecił AI napisanie pozwu. Sprawa dotyczyła nieudzielonego zamówienia na oprogramowanie, opublikowanego w bazie konkurencyjności. Powód, prezes firmy programistycznej, domagał się odszkodowania za nieudzielenie mu zamówienia. Pozew i pisma procesowe sporządził za pomocą chatu GPT. Jak wskazuje pełnomocnik pozwanego mec. Joanna Lesicka, pozew został złożony razem z załącznikami, które według powoda miały być dowodami, a w praktyce były wydrukami jego zapytań do sztucznej inteligencji.
- Powód w pozwie odwoływał się do tych załączników i pisał, że sąd nie ma wyboru i musi dostosować się do tego, co ustaliło AI. Niestety, chat GPT odwoływał się do przepisów nie tej ustawy, którą powinien stosować. W sprawie mieliśmy do czynienia z zasadą konkurencyjności i kodeksem cywilnym, a sztuczna inteligencja wmawiała powodowi, że powinna mieć zastosowanie ustawa Prawo zamówień publicznych (PZP). Zresztą, AI, cytując przepisy PZP, delikatnie je zmieniała, tak aby one wprost odpowiadały argumentacji, jaką powód wysnuwał – mówi mec. Lesicka.
Co orzekł sąd
Ostatecznie Sąd Okręgowy we Wrocławiu oddalił powództwo o odszkodowanie. – Powód nie spełniał warunków formalnych zapytania ofertowego. Twierdził, że skoro umie pisać kod w technologii flutter, która umożliwia tworzenie aplikacji mobilnych na Androida i na iOS, to jest to jednoznaczne z umiejętnością publikacji aplikacji w Appstore. Jednak nie miał ani jednej takiej aplikacji na koncie, co było konieczne do wykazania – tłumaczy mec. Lesicka.
W motywach ustnych sąd odniósł się m.in. do wykorzystania chatu GPT, wskazując "że treści generowane przez AI nie są dla sądu dowodem, a jedynie mogą służyć powodowi do tego, aby móc formułować swoje argumenty".
Czy warto zasięgać porad prawnych od sztucznej inteligencji
Adwokatka, Partnerka w Kancelarii Peak Legal, Anna Olszewska ocenia, że korzystanie z powszechnie dostępnych systemów generatywnej sztucznej inteligencji jest ryzykowne. - Szczególnie jeśli chcemy pozyskać pewną, ustrukturyzowaną wiedzę, a nie tylko brzmieć przekonująco – podkreśla.
Jej zdaniem, pragnienie oparcia się o wiedzę podawaną nam przez narzędzia AI jest spowodowane głębokim niezrozumieniem, jak one funkcjonują i czym są wyniki, które osiągamy. - Wyniki brzmią bardzo prawdopodobnie, ale przecież narzędzia nie rozumieją, co napisały. Nie weryfikują samodzielnie prawdziwości wygenerowanych treści. Modele generatywnej AI na podstawie danych, na których były trenowane, przewidują po prostu najbardziej prawdopodobne kolejne sekwencje słów. A w pozwie musimy się przecież oprzeć o konkretny zbiór sprawdzonych faktów, orzecznictwa i źródeł prawa – mówi adwokat.
Z kolei radca prawny dr Zbigniew Okoń z Kancelarii Lubasz i Wspólnicy podkreśla, że przy korzystaniu z modeli językowych do analizy tekstu, należy uważać, jak formułujemy pytania, bo sugestia zawarta w pytaniu może wpłynąć na odpowiedź.