Naczelna Rada Adwokacka pracuje nad nowymi zasadami etyki adwokackiej dotyczącymi sztucznej inteligencji. Jak istotna jest to zmiana?

To realna i ważna modyfikacja naszego kodeksu etycznego, ponieważ porządkuje zasady korzystania z AI w praktyce adwokackiej i dostosowuje regulacje etyczne do nowych zjawisk związanych z rozwojem technologii. Co szczególnie ważne, nie jest to wyłącznie postulat ideowy czy ogólna deklaracja etyczna, ale przepis, którego naruszenie może wiązać się z odpowiedzialnością dyscyplinarną.

Jakie jest ogólne podejście NRA do nowych technologii – restrykcyjne czy otwarte?

Nasza propozycja ma charakter protechnologiczny. Dostrzegamy, że nowe narzędzia mogą ułatwiać pracę adwokatom, przyspieszać analizę materiału czy usprawniać organizację pracy kancelarii. Jednocześnie chcemy wprowadzić wyraźne zabezpieczenia odpowiadające na zagrożenia, przede wszystkim w obszarze ochrony tajemnicy zawodowej, która w praktyce adwokackiej ma znaczenie fundamentalne. Kluczowy postulat jest prosty: AI ma wspomagać pracę adwokata, a nie ją zastępować.

Czytaj więcej

Adwokatura dostosowuje się do AI

Skąd potrzeba tak wyraźnego postawienia granicy?

Ryzyka związane z używaniem nowych technologii są bardzo poważne. Właśnie temu służy zasada humanocentryzmu, która stanowi główny sens tej regulacji. Ma ona przypominać, że przy korzystaniu z narzędzi technologicznych nadrzędną rolę musi zachować człowiek. AI może być wykorzystywana wyłącznie pomocniczo bez zastępowania pełnej kontroli adwokata nad przebiegiem sprawy. Systemy AI absolutnie nie mogą zastępować samodzielności osądu adwokata.

Co to oznacza w praktyce – czy adwokat musi rozumieć, jak działa AI?

To ważny sygnał dla całego środowiska, ponieważ korzystanie z takich narzędzi staje się coraz bardziej powszechne. Tego procesu nie da się zatrzymać. Właśnie dlatego adwokat, który korzysta z AI, musi znać istotę tych narzędzi, ich ograniczenia oraz ryzyka związane z ich stosowaniem.

Jakie ryzyka są najpoważniejsze?

Jednym z najważniejszych zagrożeń jest tzw. halucynogenność systemów AI, czyli generowanie treści nieprawdziwych, niepełnych albo pozornie wiarygodnych, lecz błędnych. Dlatego obowiązkiem adwokata pozostaje każdorazowa i pełna weryfikacja wszystkich danych oraz treści wygenerowanych przez model. Nie może być tak, że w razie błędu adwokat będzie tłumaczył się tym, iż zaufał systemowi albo że odpowiedzialność ponosi dostawca narzędzia. To właśnie z zasady humanocentryzmu wynika, że pełna odpowiedzialność za prowadzenie sprawy nadal spoczywa na adwokacie.

Czytaj więcej

Przemysław Rosati, prezes NRA: Oto największe problemy przeciętnego adwokata

Czy adwokat powinien informować klienta, że korzysta z AI?

W praktyce można nieraz rozpoznać, że określony tekst został wytworzony z użyciem systemu AI. Nie to jest jednak najważniejsze. Istotne jest, by adwokat nie tracił kontroli nad treścią, argumentacją i jakością pisma, które podpisuje własnym nazwiskiem i za które odpowiada zawodowo. Przyjęliśmy zasadę, że adwokat co do zasady nie ma odrębnego obowiązku każdorazowego informowania klienta o korzystaniu z AI, ale na żądanie klienta powinien wskazać, jakie narzędzia technologiczne były wykorzystywane przy prowadzeniu jego sprawy i w jakim celu.

A co z tajemnicą adwokacką?

To największe ryzyko. Problem polega na tym, że część modeli może wykorzystywać wprowadzane dane w procesie dalszego trenowania albo przetwarzania, co rodzi poważne zagrożenia dla poufności. Dlatego tak duży nacisk kładziemy na ochronę tajemnicy zawodowej i danych związanych ze sprawą. To jeden z najważniejszych punktów całej propozycji.

Jak więc w skrócie brzmi odpowiedź NRA na rozwój AI w adwokaturze?

Praktyczna odpowiedź nie polega na zakazie, lecz na postawieniu twardych granic. Adwokat może sięgać po nowe narzędzia, ale nie wolno mu oddać im ani samodzielnego osądu, ani kontroli nad tajemnicą zawodową – ponieważ nawet najbardziej zaawansowany system nie zdejmie z niego odpowiedzialności za sprawę klienta.