ChatGPT podpowiadał prawnikom fałszywe wyroki. Wszystko wydało się w sądzie

Dwóch prawników oskarżyło ChatGPT o nakłonienie ich do włączenia fikcyjnych badań prawnych do pisma sądowego - poinformował portal AP NEWS.

Publikacja: 09.06.2023 14:19

ChatGPT podpowiadał prawnikom fałszywe wyroki. Wszystko wydało się w sądzie

Foto: Adobe Stock

Adwokaci z Manhattanu mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do wcześniejszych spraw sądowych, które według prawnika były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.

Prawnik wyjaśnił, że wykorzystał przełomowy program, szukając precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca za obrażenia odniesione podczas lotu w 2019 roku.

Chatbot zasugerował adwokatom kilka przypadków związanych z wypadkami lotniczymi, których prawnik nie był w stanie znaleźć zwykłymi metodami stosowanymi w jego kancelarii.

Czytaj więcej

Sztuczna inteligencja a proces sądowy

Adwokat deklarował, że nie wiedział, że ChatGPT może sfabrykować przypadki. Stwierdził, iż błędnie sądził, że myląca prezentacja wynikała z wyciągnięcia fragmentów z różnych części sprawy.

Finalnie prawnik przeprosił i dodał, że w wyniku pomyłki ucierpiał osobiście i zawodowo.

Po tym, jak sędzia przeczytał na głos fragmenty jednej cytowanej sprawy, aby pokazać, jak łatwo było rozpoznać, że to „bełkot”, adwokat powiedział: „Nigdy nie przyszło mi do głowy, że to była fałszywa sprawa”. Zwrócił uwagę, że prawnicy w przeszłości mieli trudności z technologią, zwłaszcza nową technologią, i nie jest to coraz łatwiejsze.

Daniel Shin, adiunkt i zastępca dyrektora ds. badań w Centre for Legal and Court Technology w William & Mary Law School, powiedział, że przedstawił sprawę Avianca podczas konferencji, która przyciągnęła dziesiątki uczestników. Powiedział, że temat wywołał szok i zdumienie na konferencji. „Mówimy o południowym dystrykcie Nowego Jorku, okręgu federalnym, który zajmuje się dużymi sprawami” – powiedział Shin. „Był to pierwszy udokumentowany przypadek potencjalnego wykroczenia zawodowego ze strony prawnika korzystającego z generatywnej sztucznej inteligencji” - dodał.

Powiedział, że sprawa pokazała, w jaki sposób prawnicy mogli nie rozumieć, jak działa ChatGPT, ponieważ ma tendencję do halucynacji, mówiąc o fikcyjnych rzeczach w sposób, który brzmi realistycznie, ale nie jest. „Podkreśla niebezpieczeństwa związane z używaniem obiecujących technologii sztucznej inteligencji bez znajomości ryzyka” – powiedział Shin.

Sędzia powiedział, że orzeknie w sprawie sankcji dla prawników w późniejszym terminie.

Adwokaci z Manhattanu mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do wcześniejszych spraw sądowych, które według prawnika były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.

Prawnik wyjaśnił, że wykorzystał przełomowy program, szukając precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca za obrażenia odniesione podczas lotu w 2019 roku.

Pozostało 81% artykułu
1 / 3
artykułów
Czytaj dalej. Subskrybuj
Konsumenci
Paliwo będzie droższe o 50 groszy na litrze, rachunki za gaz o jedną czwartą
Praca, Emerytury i renty
Krem z filtrem, walizka i autoresponder – co o urlopie powinien wiedzieć pracownik
Podatki
Wykup samochodu z leasingu – skutki w PIT i VAT
Nieruchomości
Jak kwestionować niezgodne z prawem plany inwestycyjne sąsiada? Odpowiadamy
Materiał Promocyjny
Mity i fakty – Samochody elektryczne nie są ekologiczne
Nieruchomości
Wywłaszczenia pod inwestycje infrastrukturalne. Jakie mamy prawa?