Do przyczyn tych dokłada się również brak powtarzalności wyników uzyskiwanych w wyniku interakcji użytkownika z danym modelem (można powiedzieć, że istnieje prawdopodobieństwo, że wyniki te nie będą jednolite), a także – co zresztą wiąże się z tą pierwszą cechą – jedynie niewielka możliwość regulowania parametrów danego modelu. Zarówno ChatGPT, jak i inne porównywalne, powszechnie dostępne komercyjne modele językowe (np. Claude, Gemini), należą bowiem do grupy narzędzi o zamkniętym kodzie źródłowym oraz nieudostępnionych wagach. A zatem, użytkownik nie tylko nie może w istotnym stopniu wpływać na parametry modelu, ale także nie posiada wiedzy, jakie te parametry są. W szczególności, w przypadku korzystania z modeli za pomocą standardowego interfejsu internetowego, użytkownik nie ma realnej możliwości regulacji tzw. temperatury danego narzędzia, która odpowiada za stopień jego kreatywności, a tym samym wpływa na spójność wyników w ramach poszczególnych prób.

Gdy wykładnia prawa trafia w ręce algorytmu

Tymczasem faktem jest, że przedstawiciele poszczególnych zawodów prawniczych korzystają z takich modeli i wszystko wskazuje na to, że będą korzystać. Zwłaszcza przykład amerykański pokazuje, że tamtejszy wymiar sprawiedliwości nie pozostaje obojętny wobec faktu, że pojawiły się nowe użyteczne narzędzia oparte na sztucznej inteligencji, nawet jeżeli są to na razie narzędzia publicznie dostępne, które nie zostały oficjalnie wdrożone do zastosowań w sądownictwie. Mówimy tu przy tym nie o sytuacjach, w których poleganie na modelach językowych miało przykry finał dla stron lub dla pełnomocników procesowych (jak w słynnej sprawie Mata przeciwko Avianca, a to za sprawą odniesień do nieistniejących orzeczeń sądowych zawartych w piśmie procesowym), ale o przypadkach, w których sami sędziowie niejako „odważyli się” wykorzystać sztuczną inteligencję przy rozstrzyganiu spraw.

Np. w uzasadnieniu wyroku stanowego Sądu Apelacyjnego Dystryktu Kolumbii z 20.2.2025 r. (sygn. 23-CM-1067) sędzia zgłaszający zdanie odrębne oparł się na uzyskanej od ChataGPT odpowiedzi na pytanie, co oznacza – w kontekście postępowania o znęcanie się nad zwierzęciem - sformułowanie „powszechnie wiadomo”. Konkretyzując, chodziło o to, czy stanowi „wiedzę powszechną” (common knowledge) wiedza o tym, że „pozostawienie w zamkniętym samochodzie psa na godzinę i 20 minut, przy oknach uchylonych o kilka cali i temperaturze na zewnątrz dochodzącej do 37 stopni Celsjusza, jest niebezpieczne”. Z kolei na użytek uzasadnienia wyroku federalnego Sądu Apelacyjnego Stanów Zjednoczonych z 28.5.2024 r. (sygn. USCA11 Case: 22-12581) wykorzystano dwa duże modele językowe celem ustalenia powszechnego znaczenia frazy „urządzanie terenu” (landscaping).

Jak na razie trudno powiedzieć, na ile z podobnych zabiegów interpretacyjnych wspomaganych przez sztuczną inteligencję korzystają polscy sędziowie, a przynajmniej wiedza taka nie wynika z opublikowanych uzasadnień orzeczeń sądowych. Natomiast wzmianki pojawiające się w mediach społecznościowych lub prasie wskazują, że niektórzy sędziowie podejmują interesujące próby nieoficjalnego wdrożenia narzędzi opartych na sztucznej inteligencji do swojej pracy orzeczniczej (zob. w szczególności niedawno opisywany w Gazecie Prawnej przypadek sędziego Dawida Sztuwe, który wykorzystał model AI Gemini podczas rozprawy, aby zaprezentować stronom dodatkowe wyliczenia RRSO).

Czy AI może rozumieć prawo w sposób bezstronny?

Praktyka odwoływania się przez sędziów do odpowiedzi uzyskiwanych od dużych modeli językowych przy ustalaniu zwykłego znaczenia terminów języka prawnego i prawniczego nie jest jednoznacznie oceniana w samych Stanach Zjednoczonych. Kilku naukowców (Justin Curl, Peter Henderson, Kart Kandula, Faiz Surani) związanych z czołowymi amerykańskimi uniwersytetami i ośrodkami badawczymi (Harvard, Princeton i Stanford RegLab) wyraziło niedawno stanowisko, że odpowiedzi udzielane przez duże modele językowe nie oddają znaczenia poszczególnych terminów stosowanych w języku naturalnym w sposób neutralny. Ten brak bezstronności bierze się z kolei stąd, że na sposób działania dużych modeli językowych (a zatem również na to, jakie znaczenie modele te przypisują słowom i wyrażeniom) wpływają subiektywne wybory dokonywane przez prywatne korporacje rozwijające poszczególne modele. Znaczeniami słów i wyrażeń można zatem manipulować w zależności od interesów tych korporacji. Co więcej, w ocenie autorów, korzystanie z dużych modeli językowych dla ustalenia potocznego znaczenia słów i wyrażeń oznacza w istocie swoiste delegowanie czy też outsourcing kompetencji orzeczniczych (w zakresie wykładni prawa) na nieobarczone żadną odpowiedzialnością z tego tytułu podmioty zewnętrzne, co jest z kolei nie do pogodzenia z konstytucyjną rolą sędziów.

Podobnie Carissa Chen, autorka jeszcze nie opublikowanego artykułu pt. „The Ordinary Reader Test for Large Language Models”, przedstawionego we wrześniu 2025 r. na Uniwersytecie Harvarda, jest zdania, że duże modele językowe nie są wiarygodnym źródłem przy ustalaniu znaczenia słów i wyrażeń, bowiem z samej natury tych modeli wynika, że odpowiedzi przez nie udzielane nie są spójne przy poszczególnych próbach i mają charakter przypadkowy.

Prawnicy mogą zacząć pisać językiem AI

Niezależnie od tego, jak ocenimy korzystanie z dużych modeli językowych przez sędziów czy w ogóle przedstawicieli zawodów prawniczych, nie można wykluczyć tego, że treści generowane przy wykorzystaniu sztucznej inteligencji będą miały wpływ na sposób formułowania bądź styl tekstów pisanych, także tych tworzonych przez prawników (uzasadnień orzeczeń sądowych, pism procesowych). Nie powinno się zapominać o tym, że język używany w odpowiedziach generowanych przez sztuczną inteligencję ma swoją specyfikę, która przejawia się nie tylko w nadmiernym używaniu określonych słów, ale również reprezentuje inne specyficzne wzorce językowe. Niejednokrotnie wskazuje się, że sztuczna inteligencja ma swój własny charakterystyczny sposób wypowiadania się, który z kolei bywa „kopiowany”, choćby nieświadomie, przez ludzi. Artykuł opublikowany 3.12.2025 r. online przez New York Times (autorstwa Sama Krissa) dobrze oddaje naturę tego fenomenu. Autor powołuje się na badanie przeprowadzone przez Max Planck Institute for Human Development, które pokazuje, że wzorce językowe (styl, charakterystyczne słowa) stosowane w tekstach generowanych przez AI są rzeczywiście powielane przez ludzi. Badanie to polegało na analizie 360 tys. filmów zamieszczonych w serwisie Youtube, w których naukowcy „z krwi i kości” niejednokrotnie przemawiali … językiem sztucznej inteligencji.

W opisywanej sytuacji mamy zatem do czynienia ze swoistym sprzężeniem zwrotnym: choć sztuczna inteligencja zaistniała dzięki ludziom i generuje teksty w oparciu o dane treningowe, tj. zamienione na tokeny teksty wytworzone przez człowieka, to same teksty wygenerowane przez AI mają i będą miały wpływ na to, jak będzie się komunikował człowiek. Ta zależność jest już obserwowana w różnych dziedzinach życia społecznego, a w sferze prawa raczej nie będzie inaczej. A zatem, nawet jeżeli w odległej przyszłości sztuczna inteligencja nie będzie rozstrzygała sporów i nie zastąpi sędziów (czego obawiają się niektórzy), to jej wpływ na człowieka, sposób jego myślenia czy sposób argumentacji będzie z pewnością dostrzegalny.

Od zwykłego wsparcia do realnego wpływu AI na rozumowanie prawnicze

Nie można też wykluczyć, że wpływ sztucznej inteligencji na to, co piszą sędziowie, czy pełnomocnicy procesowi będzie nie tylko formalny (tj. nie będzie rzutował wyłącznie na język), ale również na taktykę procesową pełnomocników oraz kierunek rozstrzygnięć sądowych.

Możemy się tu posłużyć przykładem adwokata, radcy prawnego czy nawet sędziego, który nie mając pewności co do prawidłowego kierunku argumentacji w sprawie nieoczywistej, wykorzystuje sztuczną inteligencję celem skonfrontowania zaproponowanego przez siebie toku rozumowania z innymi możliwymi sposobami podejścia do danego problemu prawnego. W mojej ocenie w takiej sytuacji nie da się wykluczyć wpływu AI na sposób podejścia użytkownika modelu językowego do danego problemu prawnego, nawet jeżeli ten wpływ będzie tylko pośredni i nieformalny.

Wpływ ten nie musi bynajmniej polegać na mechanicznym przejęciu przez użytkownika gotowego tekstu wygenerowanego przez model (a zatem nie musi chodzić o sytuację, w której użytkownik kopiuje tekst i wkleja do pisma procesowego czy uzasadnienia wyroku jako własny), ale może oznaczać nadanie określonego kierunku argumentacji prawniczej. Takie oddziaływanie może wynikać również z priorytetyzowania przez model językowy określonych elementów stanu faktycznego kosztem innych. Co istotne, użytkownik nie musi nawet mieć świadomości, że ostateczny kierunek rozumowania jest w istocie w pewnej części wytworem sztucznej inteligencji. Użytkownik może być przekonany, że koncepcja zaprezentowana w piśmie procesowym czy uzasadnieniu wyroku jest wyłącznie rezultatem jego własnego procesu myślowego, podczas gdy w rzeczywistości została ona w pewnym stopniu ukształtowana przez dany model językowy w wyniku interakcji użytkownika z tym ostatnim. Sztuczna inteligencja może zatem zostać realnie „współtwórcą” kierunku argumentacji zaprezentowanego w piśmie procesowym czy uzasadnieniu wyroku.

Takiego wpływu nie można wykluczać, tym bardziej że wraz z ulepszaniem ogólnie dostępnych modeli językowych korzystanie z nich będzie zapewne coraz bardziej kuszące, także dla przedstawicieli zawodów prawniczych. Co więcej, w mojej ocenie ta interakcja pomiędzy branżą prawniczą a powszechnie dostępnymi modelami opartymi na generatywnej sztucznej inteligencji będzie następować równolegle z o wiele wolniejszym wdrażaniem wyspecjalizowanych modeli AI dedykowanych dla kancelarii prawnych czy wymiaru sprawiedliwości.

dr hab. Roman Uliasz, prof. Uniwersytetu Rzeszowskiego
radca prawny w kancelarii Wojciechowska & Wspólnicy Sp. k. w Rzeszowie