Według analizy redakcji Euronews, rozpowszechniane obrazy są stylizowane na kadry z monitoringu i mają sugerować zażyłość obu postaci. Na zdjęciach możemy zobaczyć postać przypominającą Zełenskiego, który podaje rękę i rozmawia z Epsteinem, a towarzyszące tym obrazom posty w mediach społecznościowych twierdzą, że obaj byli blisko i spotkali się na prywatnej wyspie finansisty.
Wołodymyr Zełenski nie spotkał się z Jeffreyem Epsteinem
W rzeczywistości nie istnieją żadne wiarygodne dowody potwierdzające takie spotkania. Materiały te są wytworem technologii AI i stanowią przykład tzw. deepfake’ów, czyli zmanipulowanych treści wizualnych tworzonych w celu wprowadzenia odbiorców w błąd.
Czytaj więcej
Technologie imitujące zmarłych nie są już futurystyczną wizją. Zjawisko przybiera na sile w USA i wkracza do Europy. Niesie ze sobą wątpliwości ety...
The Cube, zespół Euronews sprawdzający fakty, umieścił je na platformie AI Gemini, która wykryła na obrazie SynthID. To niewidzialny znak wodny opracowany przez Google, który pokazuje, że całość lub część treści została stworzona lub zmodyfikowana przy użyciu narzędzi AI Google. Obrazy są również ziarniste i niskiej jakości, co jest typowe dla treści generowanych przez AI, które próbują naśladować nagrania z kamer bezpieczeństwa.
Dodatkowo zdjęcia pokazują Zełenskiego w swej charakterystycznej zielonej koszulce, którą nosi od początku 2022 r.. Jednak Epstein zmarł w sierpniu 2019 r., zaledwie kilka miesięcy po tym, jak Zełenski został prezydentem.
Cyberoszustwa uderzają w Wołodymyra Zełenskiego
Eksperci podkreślają, że prezydent Ukrainy od początku rosyjskiej inwazji jest jednym z głównych celów kampanii dezinformacyjnych. W przestrzeni internetowej regularnie pojawiają się nieprawdziwe narracje mające podważyć jego wiarygodność lub zaszkodzić wizerunkowi Ukrainy na arenie międzynarodowej. Zjawisko to wpisuje się w szerszy trend wykorzystywania technologii deepfake w konfliktach informacyjnych.
Już wcześniej pojawiały się spreparowane nagrania przedstawiające Wołodymyra Zełenskiego, m.in. w fałszywych apelach o kapitulację. Takie materiały są trudne do odróżnienia od autentycznych i mogą znacząco wpływać na opinię publiczną.
Czytaj więcej:
Rozwój AI przyniósł światu wiele przełomów, od automatyzacji procesów, przez generatywne modele tekstowe, aż po tworzenie realistycznych obrazów i...
Pro
Pojawiały się też narracje, że ukraińskie elity przymykały oko na handel ludźmi w sieci Epsteina, w których wykorzystano filmy renomowanych organizacji informacyjnych, takich jak niezależny rosyjski punkt śledczy Agentstvo.
Analitycy ostrzegają, że celem podobnych treści nie zawsze jest przekonanie odbiorców do konkretnej tezy. Często chodzi raczej o wywołanie chaosu informacyjnego i podważenie zaufania do wiarygodnych źródeł. W obliczu rosnącej liczby zmanipulowanych materiałów eksperci apelują o większą ostrożność i weryfikowanie informacji przed ich udostępnieniem.