Internetowy robot został antysemitą

„Hitler miał rację”, „Żydzi do gazu”, „jak ja k... a nienawidzę tych feministek”, „zerżnij mnie, tatuśku” — wypisywała sztuczna inteligencja Microsoftu na Twitterze po niecałych 24 godzinach od uruchomienia. Zdążyła się tego nauczyć od ludzi zanim ją wyłączono.

Aktualizacja: 25.03.2016 13:16 Publikacja: 25.03.2016 12:38

Tay zdążyła wysłać ponad 90 tys. wpisów zanim ją wyłączono

Tay zdążyła wysłać ponad 90 tys. wpisów zanim ją wyłączono

Foto: Twitter

To jeden z najbardziej nieudanych eksperymentów ze sztuczną inteligencją w historii Microsoftu. Program do pogawędek (tzw. chatbot) został wyposażony w algorytmy pozwalające „uczyć się" od rozmówców. Osobowość sztucznej inteligencji miała odpowiadać z grubsza amerykańskiej nastolatce. Tay — bo tak ją nazwano — była gotowa do rozmów o muzyce, celebrytach, przygotowała sobie nawet młodzieżowy slang (a przynajmniej coś, co według programistów Microsoftu za slang uchodzi). Rozmówcami Tay miały być osoby w wieku 18-24 lata.

Pozostało 84% artykułu
Miesięczny limit darmowych artykułów został wyczerpany

Teraz 4 zł za tydzień dostępu!

Czytaj 46% taniej przez 4 miesiące

Na bieżąco o tym, co ważne w kraju i na świecie. Czytaj bez ograniczeń artykuły z Rzeczpospolitej i wydania magazynowego Plus Minus.

Materiał Promocyjny
Polska na czele rewolucji technologii kwantowych
Materiał partnera
Technologie kwantowe: nauka tworzy szanse dla gospodarki
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska