Tiru Chabba był jednym z dwóch zabitych w ataku na Florida State University w kwietniu ubiegłego roku. Sześć innych osób zostało wówczas rannych. Prokuratura w zeszłym miesiącu wszczęła własne dochodzenie, badając, czy ChatGPT – należący do OpenAI – odegrał w tragedii istotną rolę.
ChatGPT miał pomagać w kwestii doboru broni i amunicji
Prokurator generalny Florydy James Uthmeier stwierdził, że czat miał doradzać podejrzanemu, Phoenixowi Iknerowi, w kwestii doboru broni i amunicji. – Gdyby po drugiej stronie ekranu był człowiek, oskarżylibyśmy go o morderstwo – powiedział.
„OpenAI wiedziała, że do tego dojdzie. Wcześniej już się to zdarzało, a to była tylko kwestia czasu, zanim sytuacja się powtórzy” – napisała w oświadczeniu żona Tiru Chabby, Vandana Joshi. Dodała, że firma „postawiła zyski ponad naszym bezpieczeństwem”, a to doprowadziło do śmierci jej męża.
Rzecznik OpenAI Drew Pusateri zaprzeczył, jakoby doszło do naruszeń, i określił strzelaninę jako „straszną zbrodnię”. Podkreślił, że chatbot udzielał domniemanemu sprawcy „rzeczowych odpowiedzi opartych na informacjach powszechnie dostępnych w internecie i nie zachęcał ani nie promował nielegalnych lub szkodliwych działań”.
21-letni Ikner był w czasie strzelaniny studentem Florida State University i synem zastępcy szeryfa. Usłyszał zarzuty dwóch zabójstw oraz kilku usiłowań zabójstwa. Prokuratura zapowiedziała, że będzie domagać się kary śmierci.
Rodziny ofiar pozywają sztuczną inteligencję
Pozew Vandy Joshi wpisuje się w szerszą falę spraw przeciwko firmom technologicznym i twórcom sztucznej inteligencji, dotyczących wpływu chatbotów i mediów społecznościowych.
Rodzina Adama Raine’a, nastolatka, który odebrał sobie życie, w zeszłym roku wniosła pozew przeciwko OpenAI, twierdząc, że ChatGPT miał zachęcać go do samobójstwa.
Czytaj więcej
Sztuczna inteligencja może doprowadzić do globalnej rewolty, ponieważ wzmacnia nierówności i napięcia społeczne na niespotykaną dotąd skalę, a takż...
Firma zaprzecza, jakoby ponosiła odpowiedzialność za jego śmierć. We wpisie na blogu podała, że w sytuacjach, gdy użytkownik wyraża takie zamiary, chatbot jest szkolony, by kierować go do odpowiednich służb. Jednocześnie przyznała, że jej systemy „mogą zawodzić” i zapowiedziała dalsze prace nad ich ulepszaniem.
W marcu w przełomowym pozwie w Los Angeles ława przysięgłych uznała Meta i Google za odpowiedzialne za uzależnienie 20-latka od mediów społecznościowych.
Z kolei w Nowym Meksyku ława przysięgłych stwierdziła, że Meta świadomie szkodziła zdrowiu psychicznemu dzieci i ukrywała informacje dotyczące wykorzystywania seksualnego nieletnich.