Sztuczna inteligencja może pomóc i zaszkodzić w pracy adwokata

Naczelna Rada Adwokacka rozpoczęła prace nad wytycznymi dla członków samorządu, jak powinni używać w swojej pracy narzędzi generatywnej sztucznej inteligencji.

Publikacja: 20.07.2023 03:00

Sztuczna inteligencja może pomóc i zaszkodzić w pracy adwokata

Foto: Adobe Stock

O zamiarze przygotowania takich zasad poinformował prezes NRA na ostatnim posiedzeniu jej prezydium.

– Generatywna AI dynamicznie wchodzi w nasze życie, tworzy też możliwość wykorzystywania jej w praktyce adwokackiej – mówi Przemysław Rosati. – Mamy tu dwa główne zagadnienia: zasady bezpiecznego wykorzystywania tego typu narzędzi (w szczególności chodzi tu o tajemnicę zawodową) oraz odpowiedzialność za skutki korzystania z nich (głównie w aspekcie etyki zawodowej). A ponieważ to zagadnienie nie jest w ogóle uregulowane, to jako samorząd nie możemy nie dostrzegać tego wyzwania – wyjaśnia prezes NRA. Wskazuje, że proces rozwoju generatywnej sztucznej inteligencji jest bardzo dynamiczny, a rekomendacje mają służyć przede wszystkim bezpieczeństwu klientów, ale też adwokatów. Ze względu na konieczność uwzględnienia obu tych aspektów, prace nad rekomendacjami prowadzone będą jednocześnie przez zespół Instytutu LegalTech przy NRA oraz Zespół ds. zmian w Zbiorze Zasad Etyki Adwokackiej i Godności Zawodu.

Czytaj więcej

Unia Europejska jako pierwsza na świecie reguluje sztuczną inteligencję

– Wykorzystywanie narzędzi generatywnej AI (np. ChatGPT lub Bard) jest widoczne w branży prawnej – tłumaczy Przemysław Barchan, dyrektor Instytutu LegalTech. – Technologia niesie ze sobą wiele usprawnień i możliwości, ale jednocześnie wiążą się z nią istotne ryzyka związane m.in. z zapewnieniem poufności informacji objętych tajemnicą zawodową adwokata i bezpieczeństwem cybernetycznym. Planowane rekomendacje i zmiany w regulacjach korporacyjnych mają na celu wsparcie członków samorządu w bezpiecznym i zgodnym z zasadami etyki zawodowej wykorzystaniu AI w praktyce adwokackiej – dodaje.

Jeśli zaś chodzi o kwestie deontologiczne, to podstawowy problem sprowadza się do tego, kto odpowiada za efekt działania takiej generatywnej sztucznej inteligencji.

– Wydaje się oczywiste, że adwokat, podpisując się pod pismem stworzonym przy pomocy AI, bierze odpowiedzialność za jego treść. Ale musimy pamiętać, że jest to zagadnienie, które wymaga jednak uregulowania, by znieść wszystkie wątpliwości, które mogą się pojawić – wskazuje Przemysław Rosati. – Z tymi problemami musimy się zmierzyć. Chcemy w sposób odpowiedzialny i rozsądny podejść do zmieniającej się rzeczywistości, tak by nasza reakcja była proporcjonalna i zabezpieczała interesy klientów. Czeka nas okres jeszcze gwałtowniejszego rozwoju tych narzędzi, a nie jesteśmy w stanie dziś określić ani kierunku, w którym się to rozwinie, ani celu czy jakości informacji uzyskiwanym dzięki tej technologii. Będziemy musieli przyglądać się zmianom, ale jako samorząd zawodu zaufania publicznego musimy właśnie w interesie publicznym objąć pieczą ten aspekt praktyki – podsumowuje.

Czytaj więcej

"Trening" sztucznej inteligencji: co z prawami twórców dzieł, na których ćwiczy

Jednocześnie prace nad uregulowaniem sztucznej inteligencji (w tym generatywnej) trwają intensywnie na poziomie Unii Europejskiej. Parlament, Rada UE i Komisja prowadzą tzw. trialog, który ma doprowadzić do przyjęcia ostatecznej wersji „Aktu o sztucznej inteligencji”. Wersja przyjęta przez PE zakłada, że treści stworzone przez generatywną AI muszą być wyraźnie oznaczane.

O zamiarze przygotowania takich zasad poinformował prezes NRA na ostatnim posiedzeniu jej prezydium.

– Generatywna AI dynamicznie wchodzi w nasze życie, tworzy też możliwość wykorzystywania jej w praktyce adwokackiej – mówi Przemysław Rosati. – Mamy tu dwa główne zagadnienia: zasady bezpiecznego wykorzystywania tego typu narzędzi (w szczególności chodzi tu o tajemnicę zawodową) oraz odpowiedzialność za skutki korzystania z nich (głównie w aspekcie etyki zawodowej). A ponieważ to zagadnienie nie jest w ogóle uregulowane, to jako samorząd nie możemy nie dostrzegać tego wyzwania – wyjaśnia prezes NRA. Wskazuje, że proces rozwoju generatywnej sztucznej inteligencji jest bardzo dynamiczny, a rekomendacje mają służyć przede wszystkim bezpieczeństwu klientów, ale też adwokatów. Ze względu na konieczność uwzględnienia obu tych aspektów, prace nad rekomendacjami prowadzone będą jednocześnie przez zespół Instytutu LegalTech przy NRA oraz Zespół ds. zmian w Zbiorze Zasad Etyki Adwokackiej i Godności Zawodu.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Konsumenci
Sąd Najwyższy orzekł w sprawie frankowiczów. Eksperci komentują
Prawo dla Ciebie
TSUE nakłada karę na Polskę. Nie pomogły argumenty o uchodźcach z Ukrainy
Praca, Emerytury i renty
Niepokojące zjawisko w Polsce: renciści coraz młodsi
Prawo karne
CBA zatrzymało znanego adwokata. Za rządów PiS reprezentował Polskę
Aplikacje i egzaminy
Postulski: Nigdy nie zrezygnowałem z bycia dyrektorem KSSiP