ChatGPT podpowiadał prawnikom fałszywe wyroki. Wszystko wydało się w sądzie

Dwóch prawników oskarżyło ChatGPT o nakłonienie ich do włączenia fikcyjnych badań prawnych do pisma sądowego - poinformował portal AP NEWS.

Publikacja: 09.06.2023 14:19

ChatGPT podpowiadał prawnikom fałszywe wyroki. Wszystko wydało się w sądzie

Foto: Adobe Stock

Adwokaci z Manhattanu mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do wcześniejszych spraw sądowych, które według prawnika były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.

Prawnik wyjaśnił, że wykorzystał przełomowy program, szukając precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca za obrażenia odniesione podczas lotu w 2019 roku.

Chatbot zasugerował adwokatom kilka przypadków związanych z wypadkami lotniczymi, których prawnik nie był w stanie znaleźć zwykłymi metodami stosowanymi w jego kancelarii.

Czytaj więcej

Sztuczna inteligencja a proces sądowy

Adwokat deklarował, że nie wiedział, że ChatGPT może sfabrykować przypadki. Stwierdził, iż błędnie sądził, że myląca prezentacja wynikała z wyciągnięcia fragmentów z różnych części sprawy.

Finalnie prawnik przeprosił i dodał, że w wyniku pomyłki ucierpiał osobiście i zawodowo.

Po tym, jak sędzia przeczytał na głos fragmenty jednej cytowanej sprawy, aby pokazać, jak łatwo było rozpoznać, że to „bełkot”, adwokat powiedział: „Nigdy nie przyszło mi do głowy, że to była fałszywa sprawa”. Zwrócił uwagę, że prawnicy w przeszłości mieli trudności z technologią, zwłaszcza nową technologią, i nie jest to coraz łatwiejsze.

Daniel Shin, adiunkt i zastępca dyrektora ds. badań w Centre for Legal and Court Technology w William & Mary Law School, powiedział, że przedstawił sprawę Avianca podczas konferencji, która przyciągnęła dziesiątki uczestników. Powiedział, że temat wywołał szok i zdumienie na konferencji. „Mówimy o południowym dystrykcie Nowego Jorku, okręgu federalnym, który zajmuje się dużymi sprawami” – powiedział Shin. „Był to pierwszy udokumentowany przypadek potencjalnego wykroczenia zawodowego ze strony prawnika korzystającego z generatywnej sztucznej inteligencji” - dodał.

Powiedział, że sprawa pokazała, w jaki sposób prawnicy mogli nie rozumieć, jak działa ChatGPT, ponieważ ma tendencję do halucynacji, mówiąc o fikcyjnych rzeczach w sposób, który brzmi realistycznie, ale nie jest. „Podkreśla niebezpieczeństwa związane z używaniem obiecujących technologii sztucznej inteligencji bez znajomości ryzyka” – powiedział Shin.

Sędzia powiedział, że orzeknie w sprawie sankcji dla prawników w późniejszym terminie.

Adwokaci z Manhattanu mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do wcześniejszych spraw sądowych, które według prawnika były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.

Prawnik wyjaśnił, że wykorzystał przełomowy program, szukając precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca za obrażenia odniesione podczas lotu w 2019 roku.

Pozostało 81% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Spadki i darowizny
Poświadczenie nabycia spadku u notariusza: koszty i zalety
Prawo w Firmie
Trudny państwowy egzamin zakończony. Zdało tylko 6 osób
Podatki
Składka zdrowotna na ryczałcie bez ograniczeń. Rząd zdradza szczegóły
Ustrój i kompetencje
Kiedy można wyłączyć grunty z produkcji rolnej
Sądy i trybunały
Reforma TK w Sejmie. Możliwe zmiany w planie Bodnara