Podczas wyborów w kilku krajach członkowskich już widać było fałszywe treści i reklamy jak deepfake. – Ich stworzenie przy użyciu sztucznej inteligencji zajmuje 30 minut – mówi wiceprzewodnicząca Komisji Europejskiej Vera Jourova. – Nie mamy danych, żeby ocenić, czy wpłynęło to radykalnie na wynik wyborów. Ale gdyby to zostało wykorzystane na masową skalę, moglibyśmy zapomnieć o wolnych i uczciwych wyborach.
AI zmienia reguły gry
Deepfaki to sztucznie generowane lub manipulowane obrazy, które mogą uchodzić za autentyczne. – Naciskamy na platformy, na których mogą pojawiać się takie treści, aby albo je oznaczyli, albo usunęli – mówiła Jourova w wywiadzie dla Bloomberga.
Szybki rozwój sztucznej inteligencji pozwala na tworzenie coraz bardziej przekonujących materiałów, które mogą przedstawiać polityków w sytuacjach, które nigdy się nie wydarzyły. Jak miało to miejsce w USA z kandydatką do Senatu Kari Lake z Partii Republikańskiej. Organizacja Arizona Agenda wykorzystała sztuczną inteligencję i wizerunek polityczki i stworzyła fałszywy film z jej udziałem. Wideo prezentowało, jak technologia ta może być wykorzystana do manipulacji informacjami w kontekście wyborów. Na nagraniu były zupełnie nieprawdziwe i kontrowersyjne stwierdzenia kobiety, ale kończyło się ostrzeżeniem o potencjalnym wykorzystaniu sztucznej inteligencji do wpływania na elektorat w wyborach. Kari Lake nakazała firmie usunąć wideo ze wszystkich miejsc, ale wielu Amerykanów zdążyło je obejrzeć.
Czytaj więcej
Wygenerowany głos Joe Bidena zniechęcający do wyborów i spreparowany film porno z udziałem piosenkarki Taylor Swift to ledwie zapowiedź plagi deepfake’ów.
W Polsce to też będzie problem. Już w sierpniu 2023 r. Platforma Obywatelska wykorzystała sztuczną inteligencję do stworzenia głosu premiera Mateusza Morawieckiego. Materiał nie został odpowiednio oznaczony jako wygenerowany przez AI, co wzbudziło protesty i krytykę.