fbTrack
REKLAMA
REKLAMA

Nowe technologie

Machine learning na tropie komputerowych trolli

Stock Adobe
System uczenia się maszyn (machine learning) ma nowy cel: ustalić czy opublikowana wiadomość jest prawdziwa, czy może to fake news.

Ostatnio świat prawdziwych informacji znajduje się w poważnym kryzysie. Zanim wiadomość zostanie zweryfikowana zdąży obiec cały świat i wszystkie media społecznościowe.

W Polsce kampania samorządowa nabiera tempa, a z nim pojawia się coraz więcej informacji o wytężonej pracy botów i fałszywych informacjach dotyczących kandydatów na urzędy. Jak donosi Anna Mierzyńska, analityk socjal mediów, dla samego Patryka Jakiego pracuje pięć botów. O cyfrowych pracownikach kontrkandydatów nic jeszcze nie wiadomo.

Media społecznościowe mają coraz więcej problemów z rozprzestrzenianiem propagandy i dezinformacji. Facebook, do końca roku, planuje zatrudnić 20 000 moderatorów ludzkich i wydaje miliony dolarów na stworzenie własnych algorytmów wykrywających fałszywe wiadomości. Koszty zabezpieczeń cały czas rosną.

Być może pojawiło się światełko w tunelu. Naukowcy z Massachusetts Institute of Technology, Computer Science and Artificial Intelligence Lab (CSAIL) oraz Qatar Computing Research Institute (QCRI) uważają, że najlepszym podejściem jest skupienie się nie na faktach, ale na samych źródłach wiadomości. Zaprezentowali właśnie system wykorzystujący uczenie się maszynowe, który sprawdza, czy źródło jest dokładne czy politycznie stronnicze.

„Jeśli strona internetowa opublikowała wcześniej fałszywe wiadomości, jest duża szansa, że zrobią to ponownie”, mówi Ramy Baly, główny autor systemu. Twierdzi on, że wystarczy 150 publikacji, aby  aby niezawodnie wykryć, czy można zaufać źródłu wiadomości. Oznacza to, że można wyeliminować fake newsa, zanim szeroko się rozprzestrzeni.

Zespół stwierdził, że najbardziej wiarygodnymi sposobami wykrywania zarówno fałszywych wiadomości, jak i stronniczych raportów, jest przyjrzenie się wspólnym cechom językowym w tekstach źródłowych, w tym złożoności i strukturze. Fałszywe wiadomości okazały się bardziej skłonne do używania języka hiperbolicznego, subiektywnego i emocjonalnego.

Profesor Sibel Adali z Rensselaer Polytechnic Institute, komentując system stwierdził „Ponieważ znacznie łatwiej jest uzyskać prawdę o źródłach [niż o artykułach], metoda ta jest w stanie zapewnić bezpośrednie i dokładne prognozy dotyczące rodzaju treści rozpowszechnianych przez te źródła”

Naukowcy stworzyli również nowy open-source'owy zbiór danych, zawierający ponad 1000 źródeł wiadomości, opatrzonych komentarzami dotyczącymi faktów i stronniczości - największą na świecie bazę danych tego typu.

Nasi politycy mogą jeszcze przez chwilę spać spokojnie. W tej chwili system działa jedynie w języku angielskim. Jednak, jak głosi plotka, już zaczął ściągać z sieci polskie podręczniki językowe i wkrótce zaczyna naukę naszej mowy ojczystej.

Źródło: rp.pl
REKLAMA
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA