AI pisze projekty pism, streszcza akta, analizuje orzecznictwo, przygotowuje oferty, a coraz częściej także odbiera telefony. W wielu zespołach sztuczna inteligencja działa już niemal niezauważalnie – jako „naturalne” wsparcie pracy prawnika. Problem w tym, że AI Act nie pyta, czy prawnik korzysta z AI. Pyta, czy organizacja wie, gdzie system zaczyna wpływać na prawa człowieka – i czy potrafi nad tym zapanować.

To zasadnicza zmiana perspektywy. AI Act wyraźnie podkreśla, że regulacja nie jest o technologii jako takiej, lecz o systemach AI funkcjonujących w określonym kontekście i generujących realne ryzyko. Nie ma znaczenia, czy model jest „duży” czy „mały”, działa w chmurze czy lokalnie. Znaczenie ma to, czy jego wynik wpływa na sytuację prawną osoby fizycznej, jej prawa, obowiązki, majątek lub dostęp do ochrony prawnej.

Poziom ryzyka użycia sztucznej inteligencji

W kancelarii granica między wsparciem a decyzją bywa cienka. Jeżeli AI generuje projekt pozwu, a prawnik czyta go, poprawia i podpisuje, mówimy o narzędziu pomocniczym. Odpowiedzialność i kontrola pozostają po stronie człowieka. Sytuacja zmienia się jednak, gdy system analizuje dane klientów i rekomenduje, czy wnosić środek zaskarżenia, a prawnik w praktyce opiera się na tej rekomendacji bez pogłębionej weryfikacji. Jeszcze dalej idziemy, gdy narzędzie zaczyna profilować klientów, oceniać ryzyko procesowe lub sugerować strategię egzekucyjną. Wtedy AI przestaje być jedynie przyspieszeniem pracy. Zaczyna współdecydować.

W logice AI Act to właśnie kontekst użycia, a nie sama technologia, przesądza o poziomie ryzyka. Jeżeli wynik działania systemu wpływa na prawa majątkowe, sytuację zawodową lub procesową osoby fizycznej, bardzo łatwo można wejść w obszar systemów wysokiego ryzyka. A to oznacza już nie tylko ogólne zasady ostrożności, lecz konkretne obowiązki: zarządzanie ryzykiem w całym cyklu życia systemu, zapewnienie realnego nadzoru człowieka, testowanie i walidację, a także możliwość wykazania, że organizacja panuje nad systemem i rozumie jego działanie.

W zawodach prawniczych pojawia się jednak jeszcze jeden, znacznie subtelniejszy problem: rozmycie granicy między odpowiedzialnością zawodową a automatyzacją procesu myślowego. AI Act nie wprowadza nowych zasad etyki prawniczej, ale w praktyce może stać się ich testem. Jeżeli rekomendacja systemu zaczyna determinować kierunek sprawy, a prawnik ogranicza się do jej zatwierdzenia, powstaje pytanie o realny charakter nadzoru. W środowisku, w którym odpowiedzialność osobista i staranność zawodowa są fundamentem wykonywania zawodu, iluzja kontroli może okazać się bardziej niebezpieczna niż sama technologia.

Warto zauważyć, że AI Act nie operuje pojęciem błędu algorytmu, lecz pojęciem zarządzania ryzykiem w cyklu życia systemu. To oznacza, że odpowiedzialność nie pojawia się dopiero w momencie szkody. Ona zaczyna się na etapie projektowania i wdrażania. Kancelaria, która korzysta z narzędzia rekomendującego strategię procesową, powinna być w stanie odpowiedzieć na pytania: kto zdecydował o jego wdrożeniu, jakie testy przeprowadzono, jak weryfikowana jest trafność rekomendacji oraz czy istnieje procedura reagowania na nieprawidłowości.

Brak takich mechanizmów może zostać uznany nie tylko za niedochowanie staranności organizacyjnej, lecz także za brak realnego nadzoru nad systemem.

Tajemnica zawodowa prawnika

Do tego dochodzi wątek tajemnicy zawodowej i poufności. Sztuczna inteligencja operuje na danych. Jeżeli kancelaria korzysta z zewnętrznych modeli generatywnych, powinna jasno określić, jakie dane mogą być wprowadzane do systemu, w jaki sposób są anonimizowane oraz czy dostawca ma dostęp do informacji objętych tajemnicą. W praktyce oznacza to konieczność przedefiniowania wewnętrznych standardów pracy. AI Act nie zastępuje obowiązków wynikających z przepisów o ochronie danych czy zasad etyki, ale może sprawić, że brak kontroli nad przepływem informacji stanie się widoczny w zupełnie nowym kontekście regulacyjnym.

Kolejną kwestią jest presja ekonomiczna. Sztuczna inteligencja obiecuje zwiększenie efektywności, obniżenie kosztów i przyspieszenie procesów. W warunkach konkurencji rynkowej może pojawić się pokusa, by coraz większą część analizy przekazać systemowi. AI Act nie zabrania automatyzacji, ale wprowadza zasadę, zgodnie z którą nadzór człowieka musi być realny, a nie iluzoryczny. Jeżeli model staje się podstawą oceny ryzyka procesowego czy filtrowania spraw pod kątem opłacalności, organizacja musi być przygotowana na wykazanie, że decyzja nie została w istocie zdelegowana na algorytm.

Sztuczna inteligencja a dostęp do ochrony prawnej

W środowisku prawniczym szczególnie wrażliwa może okazać się sytuacja, w której system ocenia wiarygodność klienta lub przewiduje prawdopodobieństwo sukcesu w sporze. Jeżeli takie narzędzie wpływa na to, czy kancelaria podejmie się reprezentacji albo jaką zaproponuje strategię, mamy do czynienia z ingerencją w dostęp do ochrony prawnej. W zależności od kontekstu może to oznaczać wejście w obszar systemów wysokiego ryzyka, a w konsekwencji obowiązek wdrożenia bardziej zaawansowanych mechanizmów kontroli i dokumentowania decyzji.

Nie można też ignorować wymiaru reputacyjnego. W zawodach zaufania publicznego utrata kontroli nad procesem decyzyjnym może mieć skutki wykraczające poza sankcje administracyjne. Klient, który dowie się, że jego sprawa była w istotnym zakresie analizowana przez algorytm bez jasnej informacji i nadzoru, może zakwestionować nie tylko jakość usługi, lecz także etyczny wymiar działania kancelarii. AI Act, choć jest regulacją techniczną, w praktyce może stać się punktem odniesienia dla oceny staranności zawodowej.

Zapytaj o rolę sztucznej inteligencji w podejmowaniu decyzji

Dlatego prawdziwe wyzwanie dla środowiska prawniczego nie polega na tym, czy wdrażać AI, lecz jak zdefiniować jej rolę w procesie podejmowania decyzji. Granica między wsparciem a współdecydowaniem nie przebiega w kodzie źródłowym systemu, lecz w sposobie organizacji pracy. Jeżeli kancelaria potrafi jasno wskazać, gdzie kończy się analiza algorytmu, a zaczyna samodzielna ocena prawnika, zachowuje kontrolę. Jeżeli jednak rekomendacja systemu staje się domyślnym punktem odniesienia, a rola człowieka ogranicza się do akceptacji, wówczas ryzyko regulacyjne i zawodowe rośnie.

AI Act w zawodach prawniczych nie jest więc tylko kolejną regulacją, którą należy odhaczyć w tabeli compliance. To test dojrzałości organizacyjnej i odpowiedzialności. W świecie, w którym algorytmy potrafią analizować szybciej niż człowiek, to nie szybkość staje się kluczowa, lecz zdolność do zachowania kontroli nad decyzją. A właśnie ta decyzja – nie technologia – będzie w nadchodzących latach przedmiotem największego zainteresowania regulatorów. ©℗