Reklama

ChatGPT podpowiadał prawnikom fałszywe wyroki. Wszystko wydało się w sądzie

Dwóch prawników oskarżyło ChatGPT o nakłonienie ich do włączenia fikcyjnych badań prawnych do pisma sądowego - poinformował portal AP NEWS.
ChatGPT podpowiadał prawnikom fałszywe wyroki. Wszystko wydało się w sądzie

Foto: Adobe Stock

Adwokaci z Manhattanu mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do wcześniejszych spraw sądowych, które według prawnika były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.

Prawnik wyjaśnił, że wykorzystał przełomowy program, szukając precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca za obrażenia odniesione podczas lotu w 2019 roku.

Chatbot zasugerował adwokatom kilka przypadków związanych z wypadkami lotniczymi, których prawnik nie był w stanie znaleźć zwykłymi metodami stosowanymi w jego kancelarii.

Czytaj więcej:

Sądy i Prokuratura Sztuczna inteligencja a proces sądowy

Pro

Adwokat deklarował, że nie wiedział, że ChatGPT może sfabrykować przypadki. Stwierdził, iż błędnie sądził, że myląca prezentacja wynikała z wyciągnięcia fragmentów z różnych części sprawy.

Reklama
Reklama

Finalnie prawnik przeprosił i dodał, że w wyniku pomyłki ucierpiał osobiście i zawodowo.

Po tym, jak sędzia przeczytał na głos fragmenty jednej cytowanej sprawy, aby pokazać, jak łatwo było rozpoznać, że to „bełkot”, adwokat powiedział: „Nigdy nie przyszło mi do głowy, że to była fałszywa sprawa”. Zwrócił uwagę, że prawnicy w przeszłości mieli trudności z technologią, zwłaszcza nową technologią, i nie jest to coraz łatwiejsze.

Daniel Shin, adiunkt i zastępca dyrektora ds. badań w Centre for Legal and Court Technology w William & Mary Law School, powiedział, że przedstawił sprawę Avianca podczas konferencji, która przyciągnęła dziesiątki uczestników. Powiedział, że temat wywołał szok i zdumienie na konferencji. „Mówimy o południowym dystrykcie Nowego Jorku, okręgu federalnym, który zajmuje się dużymi sprawami” – powiedział Shin. „Był to pierwszy udokumentowany przypadek potencjalnego wykroczenia zawodowego ze strony prawnika korzystającego z generatywnej sztucznej inteligencji” - dodał.

Powiedział, że sprawa pokazała, w jaki sposób prawnicy mogli nie rozumieć, jak działa ChatGPT, ponieważ ma tendencję do halucynacji, mówiąc o fikcyjnych rzeczach w sposób, który brzmi realistycznie, ale nie jest. „Podkreśla niebezpieczeństwa związane z używaniem obiecujących technologii sztucznej inteligencji bez znajomości ryzyka” – powiedział Shin.

Sędzia powiedział, że orzeknie w sprawie sankcji dla prawników w późniejszym terminie.

Podatki
Urzędnicy skarbówki interesują się wracającymi do Polski. Co sprawdzają?
Materiał Promocyjny
Jak zostać franczyzobiorcą McDonald’s?
Materiał Promocyjny
OTOMOTO rewolucjonizuje dodawanie ogłoszeń
Nieruchomości
Jedna działka, jedna wuzetka? Ministerstwo zabrało głos
W sądzie i w urzędzie
Trzy nowe funkcje w mObywatelu. Chodzi o dowody i paszporty
Prawo w Polsce
Karol Nawrocki podpisał trzy ustawy. Studenci zostaną młodszymi asystentami sędziego
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama