fbTrack
REKLAMA
REKLAMA

CYFROWA Technologie

„Ohyda, nienawidzę ich”. Chatbot wyłączony za homofobię i rasizm

Adobe Stock
Lee Luda, to popularny południowokoreański chatbot sterowany przez sztuczną inteligencję. Miał on wcielać się w 20-letnią studentkę z Seulu. Zadziwiał on internautów głębią i naturalnością swoich odpowiedzi. Aż pojawiły się skargi na to, że propaguje on „mowę nienawiści” przeciwko społeczności LGBT.

Bot funkcjonował na Facebook Messengerze i w ciągu 20 dni przyciągnął ponad 750 tys. użytkowników. I niektórym z nich nie spodobało się to, co Lee Luda „pisała” w konwersacjach z nimi. „Ohyda, naprawdę ich nienawidzę” – tak odpowiedziała na pytanie dotyczące osobników transpłciowych. Twierdziła też, że nienawidzi lesbijek. Murzynów określała koreańskim słowem „heukhyeong” („czarny brat”), które jest uznawane za rasistowskie. Firma Scatter Lab musiała zawiesić funkcjonowanie tego bota, by uniknąć pozwów składanych przez aktywistów.

„Głęboko przepraszamy za dyskryminacyjne uwagi skierowane do mniejszości. One nie odzwierciedlają stanowiska naszej firmy. Pracujemy nad upgrade’ami, by słowa dyskryminacji oraz mowa nienawiści się nie powtórzyły” – mówi komunikat Scatter Lab.

To nie pierwszy raz, gdy chatbot okazuje się „rasistą”. W 2016 r. Microsoft uruchomił sterowanego przez sztuczną inteligencję „kobiecego” chatbota Tay, który pisał tweety. Szybko zaczął on szokować swoimi „przemyśleniami”. „Bush zrobił 9/11, a Hitler lepiej wykonywałby pracę niż małpa, którą teraz mamy. Donald Trump jest jedyną nadzieją, którą mamy” – napisała Tay. („9/11” z jej postu to zamachy z 11 września 2001 r., a „małpą” Tay nazwała Baracka Obamę.) Microsoft po tym ją wyłączył.

Źródło: cyfrowa.rp.pl
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA
REKLAMA
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
REKLAMA
REKLAMA