Sądy chcą, by adwokaci poświadczali, że nie korzystali z AI

Federalny sąd apelacyjny w Nowym Orleanie proponuje wprowadzenie wymogu, aby prawnicy potwierdzali, że albo nie polegali na programach sztucznej inteligencji przy sporządzaniu pism procesowych, albo że każde pismo wygenerowane przez AI zostało sprawdzone przez ludzi pod kątem poprawności.

Publikacja: 27.11.2023 19:31

Sądy chcą, by adwokaci poświadczali, że nie korzystali z AI

Foto: Adobe Stock

Wprowadzenie sądu w błąd co zastosowania narzędzi generatywnej sztucznej inteligencji takich jak ChatGPT lub  niezweryfikowanie wytworzonych przez nie treści, narażałoby prawników na konsekwencje z usunięciem ich dokumentów z akt sprawy włącznie.

Sąd  5. Okręgu Stanów Zjednoczonych w Nowym Orleanie chce, by regulacje dotyczyły również stron występujących przed sądem bez adwokata.  Czeka na uwagi dotyczące swojej propozycji do 4 stycznia - informuje Bloomberg.

Czytaj więcej

Szef Dentons: sztuczna inteligencja nie zastąpi prawników, ale zmieni ich pracę

To pierwszy sąd apelacyjny USA , który rozważył taki wymóg wobec prawników tam praktykujących. 

Sędziowie w całych Stanach Zjednoczonych obserwują szybki rozwój AI i widzą potrzebę wprowadzenia zabezpieczeń przed niekontrolowanym wykorzystaniem tej  technologii w salach sądowych.  Głośna była sprawa dwóch prawników z Nowego Jorku, którzy zostali ukarani za przedłożenie pisma procesowego, które zawierało sześć odwołań do  fikcyjnych przypadków wygenerowanych przez ChatGPT.

 Sędzia dystryktu Stanów Zjednoczonych Brantley Starr z Północnego Dystryktu Teksasu w czerwcu stał się jednym z pierwszych federalnych sędziów, którzy wymagają od adwokatów potwierdzenia, że nie używali ChatGPT itp.  do przygotowania swoich dokumentów bez weryfikacji ich dokładności przez człowieka.

„Te platformy w obecnym stanie są podatne na halucynacje i uprzedzenia” – wyjaśnił Starr w swoim  zarządzeniu. 

Także Sąd dla Dystryktu Wschodniego Teksasu w październiku ogłosił przepis, który wchodzi w życie 1 grudnia i wymaga od prawników korzystających z programów AI "przeglądu i weryfikacji wszelkich treści wygenerowanych komputerowo", gdyż mogą być faktograficznie lub prawnie niepoprawne.  Jak stwierdził Sąd, technologia AI "nigdy nie będzie w stanie zastąpić abstrakcyjnego myślenia i rozwiązywania problemów" przez prawników.

Wprowadzenie sądu w błąd co zastosowania narzędzi generatywnej sztucznej inteligencji takich jak ChatGPT lub  niezweryfikowanie wytworzonych przez nie treści, narażałoby prawników na konsekwencje z usunięciem ich dokumentów z akt sprawy włącznie.

Sąd  5. Okręgu Stanów Zjednoczonych w Nowym Orleanie chce, by regulacje dotyczyły również stron występujących przed sądem bez adwokata.  Czeka na uwagi dotyczące swojej propozycji do 4 stycznia - informuje Bloomberg.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Konsumenci
Paliwo będzie droższe o 50 groszy na litrze, rachunki za gaz o jedną czwartą
Praca, Emerytury i renty
Krem z filtrem, walizka i autoresponder – co o urlopie powinien wiedzieć pracownik
Podatki
Wykup samochodu z leasingu – skutki w PIT i VAT
Nieruchomości
Jak kwestionować niezgodne z prawem plany inwestycyjne sąsiada? Odpowiadamy
Materiał Promocyjny
Mity i fakty – Samochody elektryczne nie są ekologiczne
Nieruchomości
Wywłaszczenia pod inwestycje infrastrukturalne. Jakie mamy prawa?