Przepisy dotyczące stosowania sztucznej inteligencji mają się znaleźć w kodeksie etyki adwokackiej. Część ekspertów chwali tę inicjatywę, ale są też głosy krytyczne.

Wstępne założenia projektu zmian w kodeksie etyki dotyczącego wykorzystywania narzędzi generatywnej sztucznej inteligencji (ang. artificial intelligence, AI) przez adwokatów i aplikantów adwokackich były omawiane przez Naczelną Radę Adwokacką podczas niedawnego posiedzenia plenarnego.

Prezes NRA, adwokat Przemysław Rosati, tłumaczy, że chociaż trudno przewidzieć kierunek rozwoju generatywnej AI, niewątpliwe będzie ona miała wpływ także na wymiar sprawiedliwości.

– Tak jak można sobie wyobrazić napisanie pozwu lub wezwania do zapłaty przy użyciu tego typu narzędzi, tak samo można zakładać, że przygotowywane będą w ten sposób projekty orzeczeń. Prawnicy, nie tylko adwokaci, muszą powoli zacząć się zastanawiać, jak ma wyglądać odpowiedzialność etyczna za skutki użycia takich rozwiązań – argumentuje prezes.

Obowiązek doskonalenia

Pomysł uregulowania AI na gruncie korporacyjnych przepisów etycznych popierają dr Zbigniew Okoń, radca prawny i partner w kancelarii Rymarz Zdort Maruta, oraz dr Marek Gnusowski z Uniwersytetu Ekonomicznego w Poznaniu (patrz: ramka obok). Z kolei Tomasz Zalewski, radca prawny, partner w kancelarii Bird & Bird Szepietowski i wspólnicy, ma duże wątpliwości, czy rzeczywiście jest taka potrzeba.

– Sztuczna inteligencja to po prostu kolejna technologia, którą można stosować w ramach świadczenia pomocy prawnej. Ryzyko z nią związane jest zapewne większe, ale nadal nie uważam, by zasługiwała ona na specjalne traktowanie w ramach zasad etyki – mówi. I dodaje: – Korporacje prawnicze powinny natomiast pomyśleć nad wpisaniem do kodeksów etycznych obowiązku doskonalenia technologicznego. Dla właściwego świadczenia usług prawnych niezbędne jest dziś obeznanie z elektronicznymi bazami danych i portalem sądowym, ale też z narzędziami sztucznej inteligencji.

– Nasz projekt należy rozumieć jako zbiór zagadnień wymagających przedyskutowania, a nie konkretne zapisy – uściśla prezes Rosati.

Orzeczenia, których nie ma

Pierwszy z tych problemów dotyczy odpowiedzialności za wyniki dostarczone prawnikowi przez narzędzia AI.

– Musimy uwzględniać ograniczenia, którymi obarczona jest sztuczna inteligencja. Na przykład takie, że bazy danych, z których korzysta, nie zawsze są aktualne, a źródła niekoniecznie wiarygodne. To może się przekładać na jakość materiałów, które powstają za jej pomocą – tłumaczy Przemysław Rosati. Zaznacza, że inne skutki będzie mieć wykorzystywanie AI do optymalizowania procesów administracyjnych czy organizacji pracy, a inne, gdy zostanie użyta przy pracy merytorycznej.

– Takie narzędzia powinny wspierać praktykę prawniczą, a nie zastępować prawnika – mówi.

Zbigniew Okoń przyznaje, że sztuczna inteligencja jest bardzo dobra w konfabulacjach i powoływaniu się na dokumenty, których nie ma. Znana na całym świecie stała się sprawa amerykańskiego prawnika, który w postępowaniu dotyczącym wypadku na pokładzie samolotu zacytował nieistniejące orzeczenia, bo tak mu podpowiedział ChatGPT. Powołanie się w piśmie procesowym na fikcyjne orzecznictwo i fałszywe poglądy doktryny może zaszkodzić klientowi.

– Już choćby z tego powodu kwestię odpowiedzialności za wyniki uzyskane z pomocą AI warto uregulować – uważa Zbigniew Okoń. I dodaje: – Wydanie takich rekomendacji przez samorządy zawodowe miałoby głównie znaczenie edukacyjne i uświadamiające pełnomocnikom, że nie należy brać za prawdę objawioną wszystkiego, co wymyśli maszyna.

Tomasz Zalewski jest jednak sceptyczny, czy to potrzebne.

– Prawnik zawsze odpowiada za treść porady prawnej. Każdy, przygotowując opinię prawną, korzysta z wyszukiwarki internetowej, ale nie jest to powód, by wprowadzać do kodeksu etyki obowiązek sprawdzania wiarygodności informacji znalezionych w internecie – mówi.

Drugie ważne zagadnienie to odpowiedzialność za wprowadzenie do systemu AI wrażliwych informacji – objętych tajemnicą zawodową, zawierających dane osobowe lub naruszających czyjeś prawo do prywatności.

– Dzisiaj nie potrafimy powiedzieć, czy wprowadzając jakieś dane, nie tracimy nad nimi kontroli i czy nie stają się one elementem szerszego zbioru. A nawet jeśli nie wpiszemy do systemu pełnych informacji, nie ma pewności, czy generatywne narzędzie nie skojarzy ich z konkretną osobą – wyjaśnia prezes Rosati.

Mecenas Okoń potwierdza, że na ogół systemy AI nie gwarantują poufności wprowadzonych danych, które mogą być potencjalnie wykorzystane np. w procesie uczenia maszynowego.

– W przypadku danych osobowych w narzędziach takich jak ChatGPT nie zabezpiecza nas umowa powierzenia danych. Nie mamy też zapewnionych warunków poufności – dodaje ekspert.

I w tym przypadku sceptyczny wobec regulowania tych kwestii w kodeksie etyki adwokackiej jest mec. Zalewski.

– Większość systemów sztucznej inteligencji to systemy chmurowe. Związane z nimi ryzyko jest takie samo, jak w odniesieniu do innych rozwiązań chmurowych, tj. takie, że administrator systemu może wykorzystać udostępnione dane do swoich celów. Nie wydaje mi się, że systemy AI wprowadzają tu nowość, która wymagałaby regulacji – mówi.

Informować czy nie

Prezes Rosati uważa, że należy się zastanowić nad obowiązkiem zawiadomienia klienta, że pewne elementy pracy prawnika zostały sporządzone przez ChatGPT albo narzędzia pokrewne.

Ten punkt budzi najwięcej wątpliwości ekspertów.

Mecenas Zalewskiemu ma wątpliwości, czy prawnik powinien mieć obowiązek informowania klienta o używaniu narzędzi wspomagających jego pamięć, wiedzę, tworzenie pism. Chyba że całkowicie opiera się na tych narzędziach i nie weryfikuje dostarczonych przez nie informacji.

– Moim zdaniem, jeśli adwokat pobrał opinię prawną z elektronicznej bazy danych i przekazał klientowi, i tak ma obowiązek poinformować, że to nie jest jego opinia. W relacjach prawnik–klient mało prawdopodobna wydaje mi się natomiast sytuacja, w której prawnik przesyłałby treści zasugerowane przez AI bez jakiejkolwiek ich weryfikacji – mówi radca prawny.

Zbigniew Okoń zwraca uwagę, że obowiązek informacyjny pojawił się w zmianach do procedowanego na poziomie Unii Europejskiej projektu aktu w sprawie sztucznej inteligencji.

– Nie jestem przekonany, czy jest on adekwatny do specyfiki zawodu prawnika. Na pewno pojawiłyby się na tym tle liczne wątpliwości. Kiedy ten obowiązek miałby być wykonywany? Czy miałbym informować klienta już po przygotowaniu kilku akapitów z użyciem AI? Co taka informacja zmieni z punktu widzenia odpowiedzialności zawodowej? Czy jeżeli przeedytuję tekst, który zasugeruje mi sztuczna inteligencja, to nadal mam obowiązek informacyjny? – mówi.

Nad szczegółowymi rozwiązaniami w tym zakresie będzie pracował zespół NRA ds. opracowania projektu zmian w Zbiorze zasad etyki adwokackiej i godności zawodu.

– Będziemy też obserwowali prace legislacyjne, które już trwają na poziomie ustawodawstwa UE. Nasze działania będzie też determinowała dynamika rozwoju generatywnej sztucznej inteligencji, o której wciąż niestety wiemy bardzo mało – podsumowuje prezes Rosati. ©℗

opinia

Treści przygotowane z pomocą AI powinny być oznaczane

ikona lupy />
Dr Marek Gnusowski Uniwersytet Ekonomiczny w Poznaniu, specjalista rynku usług prawnych / Materiały prasowe

To bardzo dobrze, że NRA podejmuje dyskusję nad tym zagadnieniem i szybko reaguje na zmieniającą się rzeczywistość. Z jednej strony AI może usprawniać pracę prawników, a co za tym idzie – wpływać na konkurencyjność kancelarii. Z drugiej – niektórzy klienci mogą zamiast skorzystać z usług prawnych, sięgnąć do narzędzi AI. Dla nas wszystkich jest to nowa rzeczywistość, ale im szybciej samorząd będzie do tego przygotowany, tym lepiej.

W miarę dalszego rozwoju sztucznej inteligencji kluczowe znaczenie dla prawników będzie miało dostosowanie się do zmian i zapewnienie, żeby sztuczna inteligencja była wykorzystywana w sposób odpowiedzialny i etyczny. Warto podkreślić, że użycie technologii musi być transparentne. Prawnicy powinni dokładnie oznaczać, np. w opinii prawnej, miejsca, gdzie generator posłużył im jako wsparcie. Dla porównania, w środowisku naukowym już teraz wydawnictwa wymagają tego od autorów.

Ważna jest też edukacja, ponieważ jeżeli prawnicy zapoznają się z mocnymi i słabymi stronami narzędzi AI (zwłaszcza służących do generowania treści), to będą mogli używać ich w sposób odpowiedzialny i świadomy. Jednym z zadań prawników, w tym oczywiście również adwokatów, jest dbanie o świadomość prawną społeczeństwa. Dlatego przygotowywane zmiany w kodeksie etyki mogłyby również uwzględniać zwiększanie świadomości wśród klientów. Na przykład o tym, że bezkrytyczne przyjmowanie wygenerowanych, nie zawsze prawdziwych czy wiarygodnych, a pozornie profesjonalnych informacji może prowadzić do negatywnych rezultatów. ©℗