ChatGPT podpowiadał prawnikom fałszywe wyroki. Wszystko wydało się w sądzie

Dwóch prawników oskarżyło ChatGPT o nakłonienie ich do włączenia fikcyjnych badań prawnych do pisma sądowego - poinformował portal AP NEWS.

Publikacja: 09.06.2023 14:19

ChatGPT podpowiadał prawnikom fałszywe wyroki. Wszystko wydało się w sądzie

Foto: Adobe Stock

Adwokaci z Manhattanu mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do wcześniejszych spraw sądowych, które według prawnika były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.

Prawnik wyjaśnił, że wykorzystał przełomowy program, szukając precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca za obrażenia odniesione podczas lotu w 2019 roku.

Chatbot zasugerował adwokatom kilka przypadków związanych z wypadkami lotniczymi, których prawnik nie był w stanie znaleźć zwykłymi metodami stosowanymi w jego kancelarii.

Czytaj więcej

Sztuczna inteligencja a proces sądowy

Adwokat deklarował, że nie wiedział, że ChatGPT może sfabrykować przypadki. Stwierdził, iż błędnie sądził, że myląca prezentacja wynikała z wyciągnięcia fragmentów z różnych części sprawy.

Finalnie prawnik przeprosił i dodał, że w wyniku pomyłki ucierpiał osobiście i zawodowo.

Po tym, jak sędzia przeczytał na głos fragmenty jednej cytowanej sprawy, aby pokazać, jak łatwo było rozpoznać, że to „bełkot”, adwokat powiedział: „Nigdy nie przyszło mi do głowy, że to była fałszywa sprawa”. Zwrócił uwagę, że prawnicy w przeszłości mieli trudności z technologią, zwłaszcza nową technologią, i nie jest to coraz łatwiejsze.

Daniel Shin, adiunkt i zastępca dyrektora ds. badań w Centre for Legal and Court Technology w William & Mary Law School, powiedział, że przedstawił sprawę Avianca podczas konferencji, która przyciągnęła dziesiątki uczestników. Powiedział, że temat wywołał szok i zdumienie na konferencji. „Mówimy o południowym dystrykcie Nowego Jorku, okręgu federalnym, który zajmuje się dużymi sprawami” – powiedział Shin. „Był to pierwszy udokumentowany przypadek potencjalnego wykroczenia zawodowego ze strony prawnika korzystającego z generatywnej sztucznej inteligencji” - dodał.

Powiedział, że sprawa pokazała, w jaki sposób prawnicy mogli nie rozumieć, jak działa ChatGPT, ponieważ ma tendencję do halucynacji, mówiąc o fikcyjnych rzeczach w sposób, który brzmi realistycznie, ale nie jest. „Podkreśla niebezpieczeństwa związane z używaniem obiecujących technologii sztucznej inteligencji bez znajomości ryzyka” – powiedział Shin.

Sędzia powiedział, że orzeknie w sprawie sankcji dla prawników w późniejszym terminie.

Adwokaci z Manhattanu mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do wcześniejszych spraw sądowych, które według prawnika były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.

Prawnik wyjaśnił, że wykorzystał przełomowy program, szukając precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca za obrażenia odniesione podczas lotu w 2019 roku.

Pozostało 81% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
Konsumenci
Jest nowy wyrok TSUE w polskiej sprawie. Upraszcza procesy frankowiczów
Materiał Promocyjny
Zwinny, wyrazisty i dynamiczny. SUV, który bryluje na europejskich salonach
Prawo karne
Marian Banaś składa doniesienie do prokuratury na Elżbietę Witek
Prawo dla Ciebie
Od dzisiaj możemy obniżyć rachunek za prąd. Trzeba spełnić jeden warunek
Prawo karne
Jest wyrok Sądu Najwyższego ws. symulacji zabójstwa abp. Jędraszewskiego
Materiał Promocyjny
THE FUTURE OF FINANCE
Praca, Emerytury i renty
Ogłoszono listę 10 najbogatszych emerytów w Polsce
Materiał Promocyjny
Nowe finansowanie dla transportu miejskiego w Polsce Wschodniej