Sędzia sądu rejonowego w Brodnicy, przewodniczący I Wydziału Cywilnego Dawid Sztuwe, wykorzystał model AI Gemini podczas rozprawy, aby zaprezentować stronom dodatkowe wyliczenia RRSO. Spór dotyczył poprawności RRSO podanej przez bank oraz naliczania odsetek od kredytowanej prowizji. Powód opierał swoje obliczenia na kalkulatorach internetowych, a bank korzystał z funkcji IRR w Excelu i wnosił o powołanie biegłego.
– Na rozprawie pokazałem stronom sposób działania narzędzia, dane, które wprowadziłem, oraz całą iterację z modelem. Podkreśliłem, że używałem wyłącznie abstrakcyjnych wartości liczbowych, bez danych identyfikujących strony – informuje Sztuwe i dodaje, że nie miał na celu zastąpienia opinii biegłego.
AI w sądzie? Czemu nie
Jak mówi sędzia Sztuwe, AI przenika niemal każdy aspekt życia społecznego, co nieuchronnie wpłynie na pracę sędziów i funkcjonowanie całego wymiaru sprawiedliwości.
– Uważam, że zawody prawnicze nie powinny zostawać w tyle. Musimy oswajać się z tą technologią, korzystając z niej na razie w sposób testowy i – co kluczowe – bezpieczny – tłumaczy sędzia Dawid Sztuwe.
Jednak, jak podkreśla, zanim zacznie się testować narzędzia AI w sprawach zawodowych, warto zapoznać się z nimi na gruncie prywatnym lub w prostych, nieprawniczych zadaniach. Chodzi o to, by najpierw zrozumieć samą logikę działania modeli językowych, to, jak precyzja naszych poleceń (promptów) wpływa na jakość odpowiedzi i jak w praktyce wyglądają tzw. halucynacje.
– Dopiero gdy nauczymy się rozpoznawać momenty, w których sztuczna inteligencja zaczyna zmyślać fakty, możemy przejść do traktowania jej jako narzędzia pomocniczego w pracy sędziego – tłumaczy nasz rozmówca.
Zwolennikiem używania sztucznej inteligencji w wymiarze sprawiedliwości jest też dr hab. Roman Uliasz, prof. UR, radca prawny w kancelarii Wojciechowska & Wspólnicy w Rzeszowie. Jego zdaniem wymiar sprawiedliwości nie może ignorować tego, że pojawiły się nowe, użyteczne narzędzia, nawet jeżeli są to na razie narzędzia publicznie dostępne, które nie zostały oficjalnie wdrożone do zastosowań w sądownictwie.
– Oczywistym warunkiem bezpiecznego posługiwania się nimi przez sędziów czy innych pracowników wymiaru sprawiedliwości jest jednak poufność i transparentność. Wszystko wskazuje na to, że w opisywanym przykładzie takie wymogi zostały zachowane – mówi dr hab. Roman Uliasz.
W jego opinii kierunek, który zmierzałby do zakazania stosowania narzędzi AI w wymiarze sprawiedliwości – mając na względzie jego specyfikę – jest klasyczną ślepą uliczką.
– Nie wspominam już o tym, że taki zakaz jest niemożliwy do wyegzekwowania. Jeżeli generatywna sztuczna inteligencja jest i będzie stosowana przez przedstawicieli innych zawodów prawniczych, to dlaczego mielibyśmy takiej możliwości pozbawiać sędziów? – uważa radca prawny.
Nie ma specjalnej sądowej AI
Czy korzystanie z komercyjnych modeli językowych na potrzeby wymiaru sprawiedliwości jest dozwolone?
– Nie ma na razie zakazu korzystania z otwartych modeli takich jak chat GPT przez sędziów, w ramach przygotowań do rozprawy – mówi sędzia Sztuwe.
Konrad Wasik, sędzia sądu rejonowego w Przemyślu, współautor książki „Sztuczna inteligencja w wymiarze sprawiedliwości”, zwraca uwagę, że Ministerstwo Sprawiedliwości nie przedstawiło żadnego planu uruchomienia LLM w sądach.
– W marcu tego roku resort ogłosił program „Cyfrowy sąd”, który obejmuje różne projekty, będące we wczesnej fazie. Żaden z nich nie wszedł i w najbliższym czasie nie wejdzie w życie – mówi.
Jak podkreśla, w polskich sądach wciąż dominuje papier, a komputery służą jedynie jako maszyny do pisania. Jego zdaniem taki stan rzeczy uniemożliwia stosowanie zaawansowanych technologii, takich jak generatywna albo niegeneratywna AI.
– Jak wiemy, paliwem do pracy AI są dane, a te w sądach są jedynie na papierze. Takie technologie są już jednak stosowane na całym świecie – wyjaśnia.
– Pomysłów byłoby aż nadto. W ramach pracy grupy roboczej ds. sztucznej inteligencji już w 2024 r. przedstawiliśmy raport, jak można wykorzystać AI w sądach. Był to pierwszy i jedyny dokument tego typu w naszym kraju. Jaki był efekt? Poprzednie władze blokowały publikację naszego raportu – opowiada sędzia Wasik.
W jego ocenie brak specjalistycznych narzędzi AI sprawia, że z pomocą mogą przyjść komercyjne narzędzia generatywnej AI.
Co z bezpieczeństwem danych wprowadzanych do modeli AI
Moi rozmówcy podkreślają, że bardzo ważne jest bezpieczeństwo danych wprowadzanych do modeli AI.
– Nie można wprowadzać do tych systemów jakichkolwiek danych identyfikujących strony ani posługiwać się wewnętrznymi plikami, np. protokołami rozpraw ściągniętymi z wewnętrznych systemów – przestrzega sędzia Sztuwe.
Podpowiada też, że punktem wyjścia dla oceny, jakie dane podlegają ochronie, może być sprawdzenie, które z nich pojawiają się w orzeczeniach publikowanych w portalu sądów powszechnych. Standardy anonimizacji orzeczeń są uregulowane w tzw. zarządzeniu o biurowości, czyli zarządzeniu w sprawie organizacji i zakresu działania sekretariatów sądowych oraz innych działów administracji sądowej.
Mec. Uliasz zwraca uwagę, że mamy rekomendacje pt. „AI w pracy radcy prawnego” opracowane w pierwszej połowie 2025 r. przez Krajową Izbę Radców Prawnych, mamy też jeszcze nowszy dokument, tj. przewodnik po generatywnej sztucznej inteligencji wydany przez Radę Adwokatur i Stowarzyszeń Prawniczych Europy (CCBE) 2 października 2025 r. Żaden z nich nie idzie w kierunku zakazów, koncentrują się na bezpieczeństwie, poufności oraz transparentności.
Sąd: czy strony powinny wiedzieć?
W ocenie sędziego Sztuwe obecnie nie ma jednoznacznego wymogu informowania stron o tym, że sędzia korzysta z AI jako narzędzia wspierającego. AI Act mówi, że jeśli używamy sztucznej inteligencji w celach redakcyjnych, korekcyjnych, nie ma potrzeby informowania o tym stron. – Niemniej uważam, że transparentność jest istotna i taki wymóg może się pojawić – przestrzega sędzia.
– Podobnie, czy sędzia powinien informować strony, że korzysta z systemów typu Lex, Inforlex czy Legalis albo wyszukiwarki? A co, jeśli materiały przygotował mi asystent? Jeżeli po prostu szukamy inspiracji, korzystamy z AI do przeprowadzenia researchu, to myślę, że informowanie o tym stron może wprowadzać zamęt i źle wpływać na ich poczucie bezpieczeństwa. A AI nie zastępuje przecież sędziego w procesie orzeczniczym, lecz jest jedynie kolejnym narzędziem pomocniczym – uważa sędzia Sztuwe.
Z kolei mec. Uliasz pytany o wpływ użycia AI na treść orzeczeń mówi, że na pierwszy rzut oka mogłoby się wydawać, iż to sędziowie podejmują decyzje, a ze sztucznej inteligencji korzystają jedynie pomocniczo.
– Jednak wyobraźmy sobie sędziego, który nie mając pewności, w jakim kierunku powinno pójść rozstrzygnięcie w sprawie nieoczywistej, posiłkuje się „rozmową” z modelem AI i niejako przejmuje sposób rozumowania tego ostatniego. W takim przypadku wpływ AI na orzeczenie sądowe, choć nieformalny, wydaje się oczywisty. Nie łudźmy się, że takie sytuacje nie będą się zdarzały, o ile już nie występują. Sędziowie, podobnie jak wszyscy ludzie, są i będą podatni na często niezwykle przekonujący sposób argumentacji ogólnie dostępnych modeli AI – przestrzega.
Prawo europejskie dopuszcza użycie AI w wymiarze sprawiedliwości
Sędzia Wasik mówi, że chociaż AI Act dopuszcza użycie sztucznej inteligencji w wymiarze sprawiedliwości, to nie daje bezpośredniej odpowiedzi na pytanie, czy sędziowie europejscy muszą ujawniać stronom postępowania fakt jej użycia w procesie orzekania. Prawo pozostaje tu nieprecyzyjne i pozostawia wiele kwestii do interpretacji.
Zgodnie z AI Act systemy AI wykorzystywane do badania faktów, interpretacji prawa i stosowania go do konkretnego stanu faktycznego (lub w alternatywnych metodach rozstrzygania sporów) są uznawane za systemy wysokiego ryzyka. Takie systemy muszą spełniać wiele wymogów. Narzędzia takie jak Grok, Gemini czy ChatGPT nie są certyfikowane do zastosowań sądowych i trudno ocenić ich zgodność z wymogami AI Act, np. przejrzystości i nadzoru ludzkiego. Do tego dochodzi problem przekazania za ich pośrednictwem danych osobowych poza teren Polski, co niesie ryzyko naruszenia RODO i wycieku danych. AI Act klasyfikuje w tym przypadku komercyjny system AI w zależności od sposobu użycia, a nie jego charakteru.
Dodatkowo jeśli AI ma bezpośredni i znaczący wpływ na treść orzeczenia (np. algorytmiczna analiza dowodów), podmiot stosujący AI musi poinformować osoby zainteresowane o jego użyciu (art. 26 ust. 11 AI Act), gdyż taki system uważany jest za system wysokiego ryzyka. Nie uznaje się za system wysokiego ryzyka systemu AI, który nie stwarza znaczącego ryzyka szkody dla praw podstawowych osób fizycznych, w tym poprzez brak znaczącego wpływu na wynik procesu decyzyjnego.