AI dla #MeToo: Algorytmy wykryją trolli online

Naukowcy z Caltech udowodnili, że algorytmy uczenia się maszynowego mogą monitorować rozmowy w mediach społecznościowych w miarę ich rozwoju, co może pewnego dnia doprowadzić do skutecznego i zautomatyzowanego sposobu zauważania sieciowego trollingu.

Aktualizacja: 09.01.2020 14:50 Publikacja: 09.01.2020 14:45

AI dla #MeToo: Algorytmy wykryją trolli online

Foto: Shutterstock

Zapobieganie molestowaniu online wymaga szybkiego wykrywania obraźliwych, nękających i negatywnych postów w mediach społecznościowych, co z kolei wymaga monitorowania interakcji online. Obecne metody uzyskiwania takich danych z mediów społecznościowych są albo w pełni zautomatyzowane i nie dają się zinterpretować, albo opierają się na statycznym zestawie słów kluczowych, które mogą szybko stać się nieaktualne. Według naukowców żadna z tych metod nie jest skuteczna.

Anima Anandkumar, prowadząca laboratorium sztucznej inteligencji (AI) i Michael Alvarez, profesor nauk politycznych, przedstawili na konferencji na temat systemów przetwarzania informacji neuronowych w Vancouver w Kanadzie rozwiązanie tego problemu.

Poszukiwanie słów kluczowych jest niewystarczające z powodu szybkości, z jaką rozwijają się rozmowy online. Pojawiają się nowe terminy, a stare zmieniają znaczenie. Słowo kluczowe, które było używane jednego dnia, może mieć już zupełnie inne, sarkastyczne znaczenie następnego.

Zespół użył modelu GloVe (Global Vectors for Word Representation), aby odkryć nowe i istotne słowa kluczowe. GloVe reprezentuje słowa w przestrzeni wektorowej, gdzie „odległość” pomiędzy dwoma słowami jest miarą ich językowego lub semantycznego podobieństwa.

Wystarczy wziąć jedno słowo kluczowe, a GloVe może znaleźć inne, które są ściśle z nim związane. Dla przykładu użyto do wyszukiwania na Twitterze hashtagu „#MeToo”. Algorytm znalazł powiązania, takie jak „#SupportSurvivors”, „#ImWithHer” i „#NotSilent”. Takie podejście daje badaczom dynamiczny i ciągle zmieniający się zestaw słów kluczowych do wyszukiwania. Ale nie wystarczy wiedzieć tylko, czy dana rozmowa jest związana z interesującym tematem; liczy się kontekst.

GloVe potrafi pokazać stopień w jakim słowa kluczowe są ze sobą powiązane, dostarczając informacji o tym, jak są one wykorzystywane. Na przykład, na internetowym forum Reddit poświęconym mizoginizmowi, słowo „kobieta” zostało użyte w ścisłym związku ze słowami „seksualny”, „negatywny” i „stosunek”. W postach na Twitterze na temat ruchu #MeToo, słowo „kobieta” częściej kojarzyło się z terminami „firmy”, „pożądanie”, oraz „ofiary”.

Projekt ten pokazuje, że w zasięgu naszej ręki są narzędzia, które pozwolą na wykluczenie molestowania z platform mediów społecznościowych.

- Miejmy nadzieję, że narzędzia, które teraz rozwijamy, pomogą w przyszłości walczyć z wszelkimi rodzajami nękania - mówi Anima Anandkumar.

Zapobieganie molestowaniu online wymaga szybkiego wykrywania obraźliwych, nękających i negatywnych postów w mediach społecznościowych, co z kolei wymaga monitorowania interakcji online. Obecne metody uzyskiwania takich danych z mediów społecznościowych są albo w pełni zautomatyzowane i nie dają się zinterpretować, albo opierają się na statycznym zestawie słów kluczowych, które mogą szybko stać się nieaktualne. Według naukowców żadna z tych metod nie jest skuteczna.

Pozostało 81% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Materiał partnera
Technologie kwantowe: nauka tworzy szanse dla gospodarki
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska
Materiał Promocyjny
Dell Technologies: nie ma branży czy przedsiębiorstwa, które może funkcjonować bez nowoczesnych technologii