fbTrack
REKLAMA
REKLAMA

Publicystyka

Podszyć się pod rzeczywistość

shutterstock
Deepfaki to nowy, groźny sposób na rozsiewanie chaosu – pisze rzecznik ministra koordynatora służb specjalnych.

Operacje dezinformacyjne i propagandowe prowadzone głównie przez Federację Rosyjską pozostają wyzwaniem dla krajów Zachodu. Tymczasem na horyzoncie pojawiają się nowe zagrożenia związane z rozwojem technologicznym.

Wkrótce Zachód może zalać fala fałszywych, ale realnie wyglądających filmów, mających destabilizować państwa i społeczeństwa.

Technologie, które uczą się kłamstwa

Deepfake to technologia pozwalająca na wytwarzanie trudnych do weryfikowania nagrań wideo lub audio, które łudząco imitują realne materiały. Technologia ta rozwija się od kilku lat, bazując na działaniach komputerów o dużej mocy analitycznej. Dzięki technologii tzw. sztucznej inteligencji komputery są w stanie przeanalizować duże ilości filmów i nagrań, a potem nauczyć się, w jaki sposób dany obiekt (np. człowiek) wygląda i brzmi przy wykonywaniu różnych czynności. Następnie na podstawie analiz komputer jest w stanie wytworzyć – bazując na nagraniach, z którymi się zapoznał – obraz i dźwięk przedstawiający nieprawdziwą sytuację, która nie miała miejsca, ale która wygląda identycznie z faktycznymi zdarzeniami.

Z uwagi na wykorzystanie sztucznej inteligencji materiał jest niezwykle wiarygodny. Dlatego też technologia ta może stać się ogromnym wyzwaniem dla polityków, państw demokratycznych, ich władz oraz instytucji odpowiedzialnych za bezpieczeństwo wewnętrzne i porządek konstytucyjny.

Sfałszowane, ale realistyczne obrazy i dźwięki mogą być skuteczną metodą siania chaosu czy prowadzenia dywersji informacyjnej. Skutki sięgania po takie metody działania, szczególnie w okresie wyborczym, mogą być bardzo niebezpieczne. Bez odpowiedniego przygotowania czytelników i świadomości zagrożeń neutralizacja skutków fałszywych produkcji może być niewykonalna.

Z rozrywki do polityki

Do tej pory fałszywe filmiki pozostały w największym stopniu w sferze rozrywki – pojawiają się na ogół fałszywe filmiki pokazujące np. hybrydowe osoby (takie jak połączenie osoby polityka z twarzą jakiejś innej postaci, np. aktora itd.). Eksperci wskazują jednak, że z czasem należy się spodziewać rozwijania technologii deepfaków obliczonych na działania polityczne, których celem będzie destabilizacja informacyjna.

Podsycanie antagonizmów

Technologia deepfaków umożliwi agresorom sięganie po wiele nowych scenariuszy rozsiewania chaosu. Wytwarzanie fałszywych filmików może mieć na celu kompromitowanie poszczególnych osób, np. przez wytworzenie filmu podającego w wątpliwość trzeźwość osoby pokazanej na filmie (takie próby identyfikowano już w odniesieniu do amerykańskiej polityk) albo pokazanie polityka przyznającego się do działań sprzecznych z prawem czy etyką.

Deepfaki mogą również posłużyć do konfliktowania całych grup społecznych czy społeczeństw poprzez wytwarzanie filmów pokazujących agresywne wypowiedzi szczujące jedne grupy na inne. Wraz z rozwojem technologii fałszywe filmiki będą zapewne mogły również pokazywać realnie wyglądające, choć nie faktyczne, sceny z udziałem pokazanych bohaterów.

Wykazanie, że dany film pokazujący choćby atak przedstawiciela jednej grupy społecznej na przedstawiciela drugiej jest fałszywy, będzie nie lada wyzwaniem. Zanim uda się wykazać, że film jest fikcją i oszustwem, ekspozycja takiego obrazu w mediach może przynieść poważne skutki społeczne.

Podobne szkody za pomocą fałszywych filmów można będzie wyrządzić w obszarze gospodarki, np. wzniecając i podsycając animozje między negocjatorami ważnych kontraktów.

Upowszechnienie tej technologii może otworzyć przed agresorami wiele nowych pól działalności. Skutkiem może być np. wpływ na wyniki wyborów. Publikacja fałszywych filmików z politykami w roli głównej w ostatnich dniach kampanii wyborczej może spowodować zmianę preferencji wyborców.

To właśnie działania obliczone na destabilizację informacyjną w okresach wyborczych mogą być szczególnie niebezpieczne. Od szeregu lat takie działania prowadzi Rosja, organizując kampanie wpływu w czasie wyborów czy przed ważnymi plebiscytami. Należy zakładać, że Kreml będzie sięgał po wszelkie możliwości wrogiego wpływu na inne kraje.

Stosowanie technik deepfake może być dla Rosji szczególnie atrakcyjne. Obraz oddziałuje na użytkownika o wiele bardziej niż słowo pisane, zaś dementi polityków wobec siły przekazu, jaki płynie z filmu, może nie być wystarczające.

Technologia deepfaków zwiększa możliwości manipulowania opinią publiczną, co potęguje zagrożenia z tym związane. Do skutecznego realizowania nowych wyzwań potrzebna jest technologiczna odpowiedź. Należy znaleźć rozwiązanie, które będzie potrafiło skutecznie analizować treść filmów i weryfikować ich wiarygodność. Takie działania, w związku z pojawieniem się technologii deepfake, to pilna potrzeba.

Najlepsza obrona to edukacja

Jednak żadne rozwiązania technologiczne nie zastąpią świadomości społecznej na temat zagrożeń informacyjnych.

Profilaktyka i krytyczne myślenie są bardzo skuteczną formą neutralizowania chaosu informacyjnego, który w sposób celowy wytwarzany jest przez agresorów informacyjnych.

Dlatego należy prowadzić działania na rzecz większej świadomości społeczeństw Zachodu dotyczącej możliwych zagrożeń wynikających z użycia sztucznej inteligencji w celach siania chaosu informacyjnego. Działania agresorów są tym mniej skuteczne, im bardziej świadomi są odbiorcy mediów.

Źródło: Rzeczpospolita
REKLAMA
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA