Reklama

Wybory samorządowe na celowniku AI. Polska znalazła się na czarnej liście

Znaleźliśmy się na czarnej liście krajów, gdzie w trakcie kampanii użyto technologii deepfake. Sztuczna inteligencja stała się bronią przeciw demokracji.

Aktualizacja: 22.04.2024 06:54 Publikacja: 22.04.2024 04:30

Wybory samorządowe na celowniku AI. Polska znalazła się na czarnej liście

Foto: Adobe Stock

Za nami II tura wyborów samorządowych – w niedzielę Polacy głosowali w 11,8 tys. obwodów, dogrywkę rozegrano m.in. w 60 miastach, w tym w Krakowie, Rzeszowie, Wrocławiu i Poznaniu. W sumie wybieraliśmy 748 wójtów, burmistrzów i prezydentów.

Ale radość ze święta demokracji psują najnowsze badania. „Rzeczpospolita” dotarła do raportu firmy Check Point – ta przeanalizowała 36 procesów wyborczych (parlamentarnych, prezydenckich i lokalnych) na całym świecie z ostatniego pół roku. Wyniki nie napawają optymizmem.

Czytaj więcej

Michał Szułdrzyński: Pilnie potrzebujemy regulacji użycia AI w materiałach wyborczych

Raport wskazuje, iż w dziesięciu krajach doszło do manipulacji treścią informacji i przekazów medialnych z wykorzystaniem technologii deepfake. Na czarnej liście jest Polska.

Internetowa broń. AI miesza w wyborach

Deepfake to technika manipulacji obrazem i dźwiękiem, która wykorzystuje sztuczną inteligencję (AI). Jak podkreślają eksperci, takie fałszywe treści coraz częściej pojawiają się w trakcie kampanii. Check Point wciągnął nasz kraj na listę po tym, jak przed ubiegłorocznymi wyborami parlamentarnymi sfałszowano spot z udziałem byłego premiera Mateusza Morawieckiego. W materiale opublikowanym przez Platformę Obywatelską przy pomocy AI zestawiono jego wypowiedzi z mównicy sejmowej z treścią e-maila pochodzącego podobno ze skrzynki Michała Dworczyka.

Reklama
Reklama

– Zaawansowanie i dostępność technologii AI osiągnęły punkt, w którym można je łatwo wykorzystać jako broń, aby wpływać na wybory – mówi „Rzeczpospolitej” Sergey Shykevich, szef zespołu analiz Check Point. Przekonuje, że konieczne są podnoszenie świadomości o zagrożeniach dezinformacją i aktualizacja przepisów, aby przeciwdziałać tego typu ryzykom.

Czytaj więcej

Deepfake może namieszać przy wyborczych urnach. Porozumienie gigantów w Polsce

Rodem z Kubricka

Analitycy obok deepfake’a z udziałem Morawieckiego wskazują też inne przykłady. Na Słowacji np. kontrowersje wzbudził sfałszowany przedwyborczy klip audio, w którym Michal Šimečka, szef partii Postępowa Słowacja, mówi o planach „zakupu głosów” od wyborców pochodzenia romskiego. Materiał szybko rozprzestrzenił się w internecie, ochoczo udostępniany przez środowiska prokremlowskie.

W Argentynie w czasie wyborów prezydenckich obaj kandydaci tworzyli fałszywe zdjęcia z użyciem AI. Sztab Sergia Massy miał np. dystrybuować wygenerowane zdjęcia, na których Javier Milei przedstawiany był jako niezrównoważony bohater filmu „Mechaniczna pomarańcza” Stanleya Kubricka.

Zmarli zostali wskrzeszeni

Z kolei w Indiach dzięki AI „wskrzeszono” Muthuvela Karunanidhiego, dawno zmarłego przywódcę partii DMK, by w wygenerowanym materiale wideo komplementował obecnych liderów ugrupowania. Zresztą podobne przypadki odnotowano w Indonezji.

Analitycy nie mają wątpliwości: ryzyko angażowania zaawansowanych algorytmów do wpływania na politykę będzie rosnąć, tym bardziej że tylko do końca 2024 roku wybory odbędą się jeszcze w sumie w ok. 50 krajach, m.in. w USA, Wielkiej Brytanii, Unii Europejskiej.

Reklama
Reklama

Paul Hewitt z działu AI w firmie Luxoft wskazuje, że wykorzystanie tej technologii do manipulacji społeczeństwem staje się powszechne.

– Choć trudno powiedzieć, w jakim stopniu fałszywe informacje będą w stanie faktycznie wpłynąć na wyniki wyborów, to skala ich rozprzestrzeniania się jest ogromna. Coraz trudniej jest rozpoznać, co jest prawdziwe, a co wygenerowane – zaznacza.

Podsycane wątpliwości

Kamil Sadkowski, analityk Eset, zauważa, że technologiczne możliwości reagowania na zagrożenie dezinformacją wyborczą mogą być niewystarczające. – Narzędzi jest mało i działają one powoli – komentuje. – Szczególnie groźne i trudne do zidentyfikowania mogą być przekazy rozpowszechniane w zamkniętych sieciach, jak np. grupy na komunikatorach. Trudno je śledzić i identyfikować pojawiające się tam sfabrykowane materiały. A w ten sposób łatwo podsycić wątpliwości wyborców – dodaje.

Media
Szef Netfliksa w ogniu pytań senackiej komisji w sprawie umowy z Warner Bros.
Media
Ważna transakcja na rynku medialnym. Grupa PTWP przejmuje spółkę Elamed
Media
TikTok tworzy spółkę w USA, by uniknąć zakazu. Jest decyzja ByteDance
Media
Netflix doszedł do 325 mln użytkowników. Telewizje nie oddają łatwo pola
Media
Polska branża gier może być mocniejsza. Rząd szykuje nową strategię
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama