Sztuczna inteligencja powoli wkracza do sądów. Może zakłócić wymierzanie sprawiedliwości?
Jeśli chodzi o polskie sądy – bardzo powoli. Obecnie sądownictwo nie dysponuje żadnymi narzędziami opartymi na sztucznej inteligencji. Pewne rozwiązania są na etapie wstępnych pilotaży. Jeśli chodzi o sferę technologiczną jesteśmy niestety w europejskim i światowym ogonie. Natomiast zawsze warto z wyprzedzeniem myśleć o potencjalnych zakłóceniach, być na nie przygotowanym. Sztuczna inteligencja – tak jak każda technologia – może przynieść wiele korzyści, ale też zagrożeń. Przykładem mogą być uprzedzenia (bias) i halucynacje systemów, czy chociażby materiały deepfake (wygenerowane lub zmanipulowane przez sztuczną inteligencję obrazy, treści dźwiękowe lub wideo) w postępowaniu dowodowym. Dlatego wszelkie innowacje związane z AI należy wprowadzać stopniowo, w oparciu o przemyślaną strategię i z dochowaniem najwyższych standardów bezpieczeństwa. Mamy się od kogo uczyć, bo sztuczna inteligencja z powodzeniem wspiera wymiar sprawiedliwości w wielu krajach.
Kieruje pani zespołem do spraw cyfryzacji w Stowarzyszeniu Sędziów Polskich „Iustitia”, który opracował rekomendacje dla sędziów w zakresie stosowania sztucznej inteligencji. Jaki jest cel powstania rekomendacji?
Polskie sądy cały czas stoją przed wyzwaniem szerokiej informatyzacji, muszą dogonić rzeczywistość. Żyjemy w świecie nowoczesnych technologii, coraz częściej korzystamy w życiu prywatnym i zawodowym z narzędzi AI, jak chociażby duże modele językowe (LLM). Sędziowie nie są tu wyjątkiem. Dlatego powinni dysponować rzetelną wiedzą w tym zakresie. Znać korzyści, zagrożenia i zasady bezpieczeństwa.
Kogo AI zastąpi w sądach?
Optymalnym modelem wykorzystania sztucznej inteligencji w sądownictwie jest synergiczne połączenie jej potencjału z doświadczeniem i wiedzą ludzi. Chodzi o wsparcie i współpracę, nie o zastępowanie. Dotyczy to w szczególności samego orzekania. To zawsze jest decyzja i odpowiedzialność sędziego. Bo obok przepisów i orzecznictwa, jest też doświadczenie życiowe, empatia, rozsądek. Ten ludzki pierwiastek jest nie do przecenienia.
Możliwa jest ochrona danych osobowych przy stosowaniu AI w sądach? Z jakich danych nie może ona korzystać?
Najwyższy standard ochrony danych osobowych to konieczność. Zgodnie z AI Act (rozporządzenie UE z 13 czerwca 2024 2024/1689 ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji) rozwiązania AI w wymiarze sprawiedliwości należą do systemów wysokiego ryzyka. To oznacza rygorystyczne obowiązki w zakresie przejrzystości działania, nadzoru ludzkiego, bezpieczeństwa – w tym ochrony danych czy zerowania ryzyka uprzedzeń. AI Act wprowadza zasady, dzięki którym narzędzia sztucznej inteligencji przeznaczone dla sądownictwa będą mogły bezpiecznie przetwarzać dane. Natomiast jeśli chodzi o wykorzystanie rozwiązań komercyjnych, podstawowa reguła brzmi: jeśli masz wątpliwości, to nie korzystaj. Absolutnie nie można do takiego narzędzia (przeważnie będzie to LLM) wprowadzać danych poufnych, wrażliwych, osobowych, informacji procesowych czy instytucjonalnych – takich, które w jakikolwiek sposób umożliwiłyby identyfikację przedmiotu i uczestników postępowania. Systemy komercyjne mogą być przydatne w bardzo ograniczonym zakresie, jako podstawowa pomoc w opracowaniu materiałów o charakterze ogólnym, teoretycznym.
Do jakich konkretnie czynności można dziś stosować AI w sądach?
Jeśli mowa o systemach przeznaczonych dla sądownictwa, to lista potencjalnych zastosowań jest bardzo długa. Można tu wskazać chociażby na automatyczną transkrypcję protokołu, przeszukiwanie baz danych, analizę orzecznictwa lub literatury, tworzenie streszczeń zeznań i pism procesowych, automatyczne tłumaczenia. W polskich sądach póki co takich rozwiązań brak. To największe – obok kwestii ustrojowych – wyzwanie, które stoi przed Ministrem Sprawiedliwości.
Na ile komercyjne modele AI mogą być stosowane w sądach?
Obecnie takie możliwości są ograniczone. Na początku marca Departament Informatyzacji i Rejestrów Sądowych poinformował prezesów i dyrektorów sądów, że nie wyraża zgody na zakup narzędzi opartych na AI i ich testowanie. A szkoda, bo to uniemożliwia oddolne inicjatywy w zakresie innowacji. Sądy korzystają natomiast z komercyjnych narzędzi zawierających bazy aktów prawnych, orzecznictwa i literatury prawniczej, których dostawcy systematycznie rozszerzają funkcjonalności wykorzystujące sztuczną inteligencję.
Czy istnieje zagrożenie, że w przyszłości to sztuczna inteligencja zajmie się wydawaniem wyroków?
To w pewnym stopniu już się dzieje. W Chinach system AI opracowuje całą sprawę i daje propozycję rozstrzygnięcia. Sędzia, który z niej nie skorzysta, musi uzasadnić swoją decyzję. Chiny to jednak zupełnie odrębne uniwersum podejścia do praw człowieka i technologii. W realiach prawnego ekosystemu Unii Europejskiej takie rozwiązania nie są możliwe.
Czy sędziowie oporni na wszelkie nowinki techniczne poradzą sobie w nowej rzeczywistości?
Sędzia też człowiek. Jeden jest na bieżąco z nowoczesnymi technologiami, drugi ma obawy i wykazuje opór, jeszcze inny zupełnie się tym nie interesuje. I to jest naturalne. Stowarzyszenie Sędziów Polskich „Iustitia” jakiś czas temu przeprowadziło wśród swoich członków badanie ankietowe, które pokazało, że ponad 90 proc. sędziów popiera szeroko rozumianą cyfryzację sądownictwa. To świetny wynik, który dowodzi, że jako grupa zawodowa jesteśmy gotowi na technologiczną zmianę. I bardzo dobrze, bo innej drogi nie ma. Sądy muszą dogonić rzeczywistość.
Czy uda się zweryfikować autentyczność dowodów w sprawie?
Sztuczna inteligencja w postępowaniu dowodowym to ogromne wyzwanie. Chodzi tu przede wszystkim o materiały deepfake, czyli dźwięki, obrazy, filmy w całości wygenerowane za pomocą AI. Wiralowe sześć palców u dłoni jako symbol niedoskonałości deepfake należy już do przeszłości. Jakość tego rodzaju wytworów wzrasta w niebywałym tempie. Coraz trudniej jest wychwycić, czy mamy do czynienia z materiałem autentycznym, czy syntetycznym. Z pewnością biegli sądowi mogą być tu pomocni, ale i oni muszą na bieżąco podnosić swoje kwalifikacje w zakresie rozpoznawania deepfake, trzymać rękę na technologicznym pulsie. Bo sprawy, w których strony powołują się na dowody wytworzone za pomocą generatywnej sztucznej inteligencji już się w sądach pojawiają.
Czy strony postępowania muszą wiedzieć o skorzystaniu przez sąd z AI?
Wykorzystanie narzędzi sztucznej inteligencji w sądzie musi łączyć nowoczesność z poszanowaniem prawa do rzetelnego procesu. Jak wspomniałam, systemy wykorzystywane w sądownictwie są objęte wysokim ryzykiem. Zasada przejrzystości odgrywa tu bardzo ważną rolę. AI Act nakłada obowiązek poinformowania stron, gdy używa się systemu, który może wpływać na treść rozstrzygnięcia lub na ocenę materiału dowodowego, przykładowo – gdy służy do analizy nagrań lub identyfikacji osób, rekomenduje rozstrzygnięcie, czy jest wdrożony jako element procesu decyzyjnego w administrowaniu wymiarem sprawiedliwości. Informowanie nie jest co do zasady wymagane, gdy narzędzie ma charakter wyłącznie redakcyjny lub organizacyjny, czyli wspiera formatowanie, korektę językową, układ dokumentu, porządkuje materiał lub wyszukuje treści o charakterze ogólnym. Uważam jednak, że i w takich wypadkach należy poinformować strony o wykorzystaniu AI. To wspiera zasadę lojalności procesowej i wzmacnia zaufanie do sądu.
Jeśli już sąd zdecyduje się korzystać z AI, to na co musi zwracać szczególną uwagę?
W przypadku systemów wdrożonych i zatwierdzonych instytucjonalnie kluczowe jest wypełnienie wspomnianego wyżej obowiązku informacyjnego i nadzór nad wynikami pracy systemu. Kwestie bezpieczeństwa, ryzyka i ochrony danych leżą tu po stronie administratora. Natomiast korzystanie z narzędzi komercyjnych musi mieć bardzo ograniczony charakter i sprowadzać się do wsparcia w podstawowych obszarach, jak np. redakcja tekstu, analiza orzecznictwa i literatury, czynności o charakterze ogólnym i teoretycznym. Priorytetem jest tutaj ochrona danych. Trzeba mieć świadomość, że każda interakcja z modelem odbywa się w sferze publicznej. Dlatego w razie wątpliwości, lepiej z użycia narzędzia zrezygnować. Takie jest główne założenie rekomendacji opracowanych przez nasze stowarzyszenie – edukacja, budowanie świadomości korzyści i zagrożeń, uczulenie na aspekt bezpieczeństwa. Rekomendacje można pobrać ze strony internetowej Stowarzyszenia Sędziów Polskich „Iustitia”. Zachęcam wszystkich – nie tylko prawników – do lektury. Mam nadzieję, że okaże się pomocna.
Karolina Rokita, doktor nauk prawnych, sędzia Sądu Rejonowego w Rzeszowie, kieruje zespołem do spraw cyfryzacji w Stowarzyszeniu Sędziów Polskich „Iustitia”, który opracował rekomendacje dla sędziów w zakresie stosowania sztucznej inteligencji.