fbTrack
REKLAMA
REKLAMA

Rankingi

Sztuczna inteligencja w kancelarii prawnej - wyzwania i bariery

Adobe Stock
W walce prawników o klienta wkrótce jednym z najważniejszych atutów będzie korzystanie z nowoczesnych technologii. Barierą może być jednak wysoka cena takich rozwiązań.

Błyskotliwe mowy sądowe czy też sukcesy negocjacyjne przy transakcjach – po tym poznaje się klasę prawnika. Jednak nawet ci najlepsi i najchętniej wybierani przez klientów na co dzień muszą się zmagać z monotonną, trudną pracą. Polega ona zazwyczaj na żmudnej analizie dokumentów i przepisów. Coraz częściej wyręczają ich w tym komputery, które taką analizę wykonują za człowieka. Taki mechanizm, zwany sztuczną inteligencją, może sprawić, że kancelaria staje się wydajniejsza i osiąga przewagę konkurencyjną.

Tak właśnie uważają respondenci badania „Future Ready Lawyer" (ang. „prawnik gotowy na przyszłość"), które na zlecenie firmy Wolters Kluwer wykonano wśród 700 prawników w USA i w Europie. Jedna z najważniejszych konkluzji raportu powstałego po tym badaniu brzmi: liderzy technologii wśród prawników wykazują wyższą rentowność. Jednak tylko 24 proc. uznało, że dobrze rozumie takie technologie. Aż 53 proc. przewiduje, że nakłady ich kancelarii na nowoczesne technologie wzrosną w najbliższych latach.

Zastosowanie sztucznej inteligencji w polskich kancelariach prawniczych może napotkać jednak pewne bariery. Jedną z nich jest wysoka cena takich rozwiązań. Inną – język polski. Jest on znacznie bardziej złożony niż angielski, którego używają dzisiejsze programy do analizy umów, wyroków czy innych dokumentów.

Jednak zdaniem prof. Michała Jackowskiego, adwokata i partnera w poznańskiej kancelarii DSK, technika z czasem może pomóc w uporaniu się z tym problemem.

– Obserwując postęp w rozwoju takich narzędzi jak Google Translate czy Google Assistant, można przypuszczać, że problem naszego trudnego języka zostanie rozwiązany – przypuszcza ekspert.

Na inne kwestie wskazuje Marcin Zręda, dyrektor strategiczny rynku usług prawnych i przedsiębiorstw w Wolters Kluwer Polska.

– Wyzwaniem dla twórców sztucznej inteligencji jest potencjalna konieczność wyjaśniania jej użytkownikom, jakimi algorytmami posługuje się oprogramowanie podpowiadające konkretne rozwiązania – mówi ekspert. I przytacza niedawny przypadek sytuacji, w której komputer wygrał w chińską grę „Go" z graczami klasy mistrzowskiej, przy czym nikt, nawet twórcy programu nie mogli zrozumieć, jaki był tok „myślenia" maszyny w tej grze. – Jeśli podobnie niejasny będzie sposób działania algorytmu podpowiadającego decyzję, np. sędziemu wydającemu wyroki – możemy dojść do niezamierzonych efektów, w tym ograniczonego zaufania do nowych rozwiązań – zauważa Zręda.

Prof. Michał Jackowski wskazuje, że wielkim wyzwaniem pozostaje uregulowanie zasad odpowiedzialności za błędy sztucznej inteligencji, zwłaszcza w procesach, w których nie uczestniczy człowiek.

– Dzisiejsi użytkownicy takich narzędzi powinni zbierać swoje doświadczenia i uczestniczyć w dyskusji, tak, aby w niedalekiej przyszłości pomóc ustawodawcy w podjęciu właściwych decyzji – sugeruje Jackowski. Jego zdaniem przyszłe prawo powinno zapewnić przejrzystość procesu wnioskowania przez maszynę i możliwość odwołania do „ludzkiej instancji" od decyzji komputera.

Źródło: Rzeczpospolita
REKLAMA
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA