We współpracy z Element AI i grupą 6500 ochotników z ponad 150 krajów świata przeanalizowano miliony wpisów na Twitterze w największym tego typu badaniu przeprowadzonym przez Amnesty International.
Analizowane tweety były skierowane do 778 dziennikarek i kobiet aktywnych w polityce z USA i Wielkiej Brytanii w 2017 roku. Zwracano uwagę na groźby formułowane z pobudek rasowych i etnicznych, a także ze względu na poglądy polityczne.
Do owych 778 kobiet działających publicznie w 2017 roku skierowano łącznie 1,1 mln napastliwych lub "problematycznych" tweetów w ciągu roku, co oznacza, że jeden taki tweet kierowano do kobiety co 30 sekund.
Napastliwe tweety podzielono na dwie grupy: te które naruszały regulaminy Twittera, w tym zawierające obraźliwe sformułowania bądź groźby napaści fizycznej bądź seksualnej i "problematyczne", czyli takie, które według AI zawierały wrogą treść - w tym np. wzmacniające negatywne lub szkodliwe stereotypy dotyczące kobiet.
Badanie wykazało też, że czarnoskóre kobiety są o 84 proc. bardziej narażone na to, że będą obrażane na Twitterze niż białe kobiety.