Za nami II tura wyborów samorządowych – w niedzielę Polacy głosowali w 11,8 tys. obwodów, dogrywkę rozegrano m.in. w 60 miastach, w tym w Krakowie, Rzeszowie, Wrocławiu i Poznaniu. W sumie wybieraliśmy 748 wójtów, burmistrzów i prezydentów.
Ale radość ze święta demokracji psują najnowsze badania. „Rzeczpospolita” dotarła do raportu firmy Check Point – ta przeanalizowała 36 procesów wyborczych (parlamentarnych, prezydenckich i lokalnych) na całym świecie z ostatniego pół roku. Wyniki nie napawają optymizmem.
Czytaj więcej
Jeśli chcemy, by o naszej przyszłości decydowały w demokratycznym procesie rozum i wolna wola obywateli, a nie fejki, algorytmy (albo po prostu Ros...
Raport wskazuje, iż w dziesięciu krajach doszło do manipulacji treścią informacji i przekazów medialnych z wykorzystaniem technologii deepfake. Na czarnej liście jest Polska.
Internetowa broń. AI miesza w wyborach
Deepfake to technika manipulacji obrazem i dźwiękiem, która wykorzystuje sztuczną inteligencję (AI). Jak podkreślają eksperci, takie fałszywe treści coraz częściej pojawiają się w trakcie kampanii. Check Point wciągnął nasz kraj na listę po tym, jak przed ubiegłorocznymi wyborami parlamentarnymi sfałszowano spot z udziałem byłego premiera Mateusza Morawieckiego. W materiale opublikowanym przez Platformę Obywatelską przy pomocy AI zestawiono jego wypowiedzi z mównicy sejmowej z treścią e-maila pochodzącego podobno ze skrzynki Michała Dworczyka.
– Zaawansowanie i dostępność technologii AI osiągnęły punkt, w którym można je łatwo wykorzystać jako broń, aby wpływać na wybory – mówi „Rzeczpospolitej” Sergey Shykevich, szef zespołu analiz Check Point. Przekonuje, że konieczne są podnoszenie świadomości o zagrożeniach dezinformacją i aktualizacja przepisów, aby przeciwdziałać tego typu ryzykom.
Czytaj więcej
Sztuczna inteligencja może wpłynąć na wyniki głosowania – ostrzegają eksperci. Aby zapobiec manipulacjom i masowej dezinformacji, Google, Meta i Ti...
Rodem z Kubricka
Analitycy obok deepfake’a z udziałem Morawieckiego wskazują też inne przykłady. Na Słowacji np. kontrowersje wzbudził sfałszowany przedwyborczy klip audio, w którym Michal Šimečka, szef partii Postępowa Słowacja, mówi o planach „zakupu głosów” od wyborców pochodzenia romskiego. Materiał szybko rozprzestrzenił się w internecie, ochoczo udostępniany przez środowiska prokremlowskie.
W Argentynie w czasie wyborów prezydenckich obaj kandydaci tworzyli fałszywe zdjęcia z użyciem AI. Sztab Sergia Massy miał np. dystrybuować wygenerowane zdjęcia, na których Javier Milei przedstawiany był jako niezrównoważony bohater filmu „Mechaniczna pomarańcza” Stanleya Kubricka.
Zmarli zostali wskrzeszeni
Z kolei w Indiach dzięki AI „wskrzeszono” Muthuvela Karunanidhiego, dawno zmarłego przywódcę partii DMK, by w wygenerowanym materiale wideo komplementował obecnych liderów ugrupowania. Zresztą podobne przypadki odnotowano w Indonezji.
Analitycy nie mają wątpliwości: ryzyko angażowania zaawansowanych algorytmów do wpływania na politykę będzie rosnąć, tym bardziej że tylko do końca 2024 roku wybory odbędą się jeszcze w sumie w ok. 50 krajach, m.in. w USA, Wielkiej Brytanii, Unii Europejskiej.
Paul Hewitt z działu AI w firmie Luxoft wskazuje, że wykorzystanie tej technologii do manipulacji społeczeństwem staje się powszechne.
– Choć trudno powiedzieć, w jakim stopniu fałszywe informacje będą w stanie faktycznie wpłynąć na wyniki wyborów, to skala ich rozprzestrzeniania się jest ogromna. Coraz trudniej jest rozpoznać, co jest prawdziwe, a co wygenerowane – zaznacza.
Podsycane wątpliwości
Kamil Sadkowski, analityk Eset, zauważa, że technologiczne możliwości reagowania na zagrożenie dezinformacją wyborczą mogą być niewystarczające. – Narzędzi jest mało i działają one powoli – komentuje. – Szczególnie groźne i trudne do zidentyfikowania mogą być przekazy rozpowszechniane w zamkniętych sieciach, jak np. grupy na komunikatorach. Trudno je śledzić i identyfikować pojawiające się tam sfabrykowane materiały. A w ten sposób łatwo podsycić wątpliwości wyborców – dodaje.