Z tego artykułu dowiesz się:

  • Dlaczego brak oznaczania treści generowanych przez AI stanowi problem?
  • Czy główne partie polityczne w Polsce korzystają ze sztucznej inteligencji?
  • Co przyczynia się do rosnącej popularności narzędzi AI wśród polityków?
  • Jakie konkretne przykłady manipulacji i deepfaków już zaobserwowano?
  • Jakie są przewidywania dotyczące przyszłego wpływu AI na politykę?

Zostałem zamordowany – mówi zmarły w 2011 r. Andrzej Lepper, stojąc w polu pszenicy i trzymając w ręku kłos. – Ale nie o to chodzi. Mam godnych następców. Wspierajcie. Samoobrona Odrodzenie. Polska dla Polaków. Tylko ta partia może zrealizować moje zadania. Zawsze ufałem takim ludziom. A co do PiS-u, my was znajdziemy! – przestrzega.

Reklama
Reklama

Tak wygląda spot, jaki zrealizowała Samoobrona Odrodzenie, jedna z trzech istniejących w Polsce partii ze słowem „Samoobrona” w nazwie. Tworzą ją osoby związane z polskim Ruchem Antywojennym, często oskarżanym o sprzyjanie Rosji w wojnie z Ukrainą, chętnie nawiązujące do dziedzictwa Andrzeja Leppera. Do tego stopnia, że spot ze zmarłym w 2011 r. liderem Samoobrony, stojącym w polu pszenicy, umieszczono w najbardziej eksponowanym miejscu strony internetowej partii.

Został oczywiście wygenerowany za pomocą sztucznej inteligencji. Czy posługiwanie się wizerunkiem zmarłego i wkładanie mu w usta słów poparcia dla partii, która za jego życia nawet nie istniała, jest dopuszczalne? Przewodniczący Samoobrony Odrodzenia Jerzy Andrzejewski twierdzi, że tak. – To jest forma zainteresowania wyborców. Tak wygląda w dzisiejszych czasach polityczny PR – mówi w rozmowie z „Rzeczpospolitą”. – Ta forma przekazu ma zmusić ludzi do myślenia. Wszyscy wiedzą, że Andrzej Lepper nie żyje, więc nie można tego uznać za wprowadzanie w błąd – dodaje.

Czytaj więcej

Powstała nowa partia Samoobrona Odrodzenie. Skąd bierze się sentyment do Leppera?

Problem w tym, że autorzy filmu nie pokusili się o oznaczenie, że został wygenerowany w AI, a to tylko jeden z przykładów wątpliwego etycznie wykorzystywania sztucznej inteligencji w celach politycznych. – Politycy i partie coraz częściej korzystają z AI w swojej komunikacji, jednak nie zawsze odpowiednio oznaczają powstałe w ten sposób wytwory. Wyborcy, szczególnie ci, którzy nie posiadają odpowiednich kompetencji cyfrowych, mogą uznać przedstawione zdarzenia za prawdziwe – tłumaczy Marcel Kiełtyka z zarządu stowarzyszenia Demagog, zajmującego się fact-checkingiem i walką z dezinformacją. – Jest to poważny problem, bo to właśnie m.in. politycy powinni wyznaczać standardy i edukować społeczeństwo w zakresie nowych technologii – dodaje.

Z treści wygenerowanych w sztucznej inteligencji coraz częściej korzystają największe partie w Polsce

Korzystanie z AI nie dotyczy tylko niszowych partii, jak Samoobrona Odrodzenie. Po tzw. deepfaki sięgają też główni gracze na polskiej scenie politycznej. Przykłady? Wyjątkowo sporo było ich po wybuchu afery wokół Zondacrypto, giełdy kryptowalut, mającej ogromne problemy z płynnością. W przeszłości Zondacrypto była czołowym reklamodawcą TV Republika i sponsorowała prawicowe imprezy, co nie omieszkali wykorzystać politycy KO.

Dlaczego politycy tak chętnie posługują się sztuczną inteligencją? Najprostsza odpowiedź brzmi: bo to proste

„Jakby nie kłamali, to od swoich sponsorów się nie odkleją” – napisał dwa tygodnie temu na portalu X Jan Grabiec, szef Kancelarii Prezesa Rady Ministrów. Do wpisu dokleił zbiorowe zdjęcie polityków PiS na tle napisu Zondacrypto. Tego samego zdjęcia użył też inny wpływowy polityk KO Roman Giertych.

Problem w tym, że nie jest ono prawdziwe. Jest przeróbką fotografii z 2023 r., gdy politycy PiS pozowali na tle hasła „Bezpieczna Polska”. Jednak nie tylko politycy KO, korzystając ze sztucznej inteligencji, postanowili skleić swoich przeciwników z aferą Zondacrypto.

Np. poseł PiS Andrzej Śliwka, w komentarzu pod wpisem Grabca, zamieścił stworzone przy pomocy sztucznej inteligencji zdjęcie szefa KPRM, ściskającego dłoń prezesa Zondacrypto. W nieco bardziej wyrafinowany sposób sztuczną inteligencję wykorzystał Janusz Kowalski, prawicowy poseł, który w kwietniu wystąpił z klubu parlamentarnego PiS. Opublikował zdjęcie premiera Donalda Tuska, pozującego z koszulką Lechii Gdańsk z logo sponsora klubu Zondacrypto. Premier rzeczywiście otrzymał taką koszulkę podczas jednego z wydarzeń, co udokumentował na swoich mediach społecznościowych. Jednak stopklatka z nagrania, która trafiła na profil Janusza Kowalskiego, została przerobiona z pomocą sztucznej inteligencji, by koszulka była lepiej widoczna.

– Użyłem zdjęcie, które od kogoś otrzymałem. Nie jestem w stanie stwierdzić, czy zastosowano sztuczną inteligencję. Jednak przede wszystkim, przekaz był prawdziwy, bo Tusk rzeczywiście trzymał taką koszulkę – broni się Janusz Kowalski. Z kolei poseł Andrzej Śliwka napisał w mediach społecznościowych, że skoro Grabiec wrzuca nieprawdziwe zdjęcia, on również może zamieścić przeróbkę, pokazującą szefa KPRM.

Wydaje mi się, że każdy, kto widział to zdjęcie na moim profilu, zdawał sobie sprawę, że nie jest autentyczne. Nikt chyba nie spodziewał się, że Kaczyński rzeczywiście ustawił się do fotografii pod logo Zondacrypto. Celem było zobrazowanie związków PiS z tą giełdą kryptowalut, które – w istocie rzeczy – są prawdą. Za PiS-em stoi Zondacrypto. I takie są fakty – komentuje dla „Rzeczpospolitej” Roman Giertych.

Popularności sztucznej inteligencji w świecie polityki sprzyja dostępność i łatwa obsługa narzędzi

Dlaczego politycy tak chętnie posługują się sztuczną inteligencją? Najprostsza odpowiedź brzmi: bo to proste. – Stworzenie awatara dowolnego posła z dowolną wypowiedzią na mównicy sejmowej zajmuje dziś kilka minut. Wystarczy zgrać 20 minut wypowiedzi danego parlamentarzysty, by sztuczna inteligencja odtworzyła postać z dokładnym głosem i mimiką, w zasadzie nie do odróżnienia. Nie trzeba być grafikiem czy informatykiem. To są narzędzia publicznie dostępne dla każdego – mówi Dariusz Matecki, budzący wiele kontrowersji poseł PiS, który nie ukrywa, że na co dzień korzysta ze sztucznej inteligencji.

Choć jak przyznaje, pomaga mu ona głównie tworzyć grafiki. – Właściwie większość z nich, z moją twarzą czy z popieranymi przeze mnie hasłami, generuję za pomocą AI. Jeszcze niedawno w Photoshopie zajmowało mi to dwie-trzy godziny, dziś wystarczy mi kilkadziesiąt sekund. Jeśli coś jest tak łatwo dostępne, to dlaczego z tego nie korzystać? – pyta Dariusz Matecki.

Czytaj więcej

„Przetrwamy, ziomeczki”. Instrukcje Dariusza Mateckiego, jak zacierać ślady

I rzeczywiście, przeglądając jego profile w mediach społecznościowych, łatwo można natknąć się na grafiki generowane w AI. „To Niemcy i Austria powinny utrzymywać muzea w Auschwitz, w Treblince, Muzeum Powstania Warszawskiego i na Majdanku! To one mordowali bezbronnych ludzi!” – brzmi podpis jednej z takich ilustracji.

Jednak problem pojawia się wtedy, gdy politycy nie generują materiałów propagandowych, lecz tzw. deepfaki. Praktyka taka zaś nie zaczęła się przy okazji afery Zondacrypto.

Tego typu kontrowersje związane są m.in. z Dariuszem Mateckim. Np. w lutym, po głosowaniu nad ustawą o SAFE, wrzucił do sieci filmik, na którym widać rzekomego SMS-a, wysłanego przez premiera Donalda Tuska do Miguela Bergera, ambasadora Niemiec w Polsce. Na zbliżeniu można zobaczyć napis w języku niemieckim „Panie ambasadorze, misja wykonana”. Ten fragment filmiku był oznaczony jako wygenerowany za pomocą sztucznej inteligencji, ale i tak nagranie zrobiło oszałamiającą karierę w mediach społecznościowych.

Z kolei w kampanii wyborczej w 2023 r. Platforma Obywatelska wyemitowała spot z fragmentami wiadomości autorstwa byłego premiera Mateusza Morawieckiego z PiS, które wyciekły w ramach tzw. afery taśmowej. W spocie czyta je głos Morawieckiego, wygenerowany przez sztuczną inteligencję.

Jeszcze szerszym zjawiskiem jest wykorzystywanie sztucznej inteligencji nie przez samych polityków, tylko kibicujących im internautów. Np. w ostatnich tygodniach do internetu wyciekło nagranie Marszałka Sejmu Włodzimierza Czarzastego z Lewicy, rzekomo całującego ukraińską flagę, oraz zdjęcie posła KO Franciszka Sterczewskiego w erotycznym stroju kota. Oba materiały powstały przy użyciu sztucznej inteligencji, przy czym to drugie nie przedstawia nawet Sterczewskiego, lecz łudząco podobnego do niego piosenkarza i aktora Daniela Larsona.

Zdaniem eksperta, może czekać nas zalew deepfaków z użyciem sztucznej inteligencji

Czy w najbliższej przyszłości czeka nas zalew wprowadzających w błąd politycznych nagrań i grafik, wygenerowanych w AI? Marcel Kiełtyka obawia się, że tak. – W ostatnich wyborach w Polsce obserwowaliśmy pojedyncze przypadki wykorzystywania sztucznej inteligencji, które raczej nie miały realnego wpływu na decyzje wyborców. Obawiam się, że inaczej może to wyglądać w przyszłym roku, szczególnie że takie zjawiska występowały przy okazji wyborów w innych krajach, np. na Węgrzech czy Słowacji – mówi Marcel Kiełtyka.

Czytaj więcej

Wyborcze manipulacje u bram. Czy Polsce grozi scenariusz rumuński?

Na Słowacji zaledwie na dwa dni przed wyborami w 2023 r. do mediów społecznościowych trafiło nagranie, w którym Michal Šimečka, przewodniczący partii Postępowa Słowacja, wyznaje dziennikarce, że kupował za pieniądze głosy u romskiej mniejszości. Nagranie oczywiście powstało przy pomocy sztucznej inteligencji, jednak pojawiło się w ciszy wyborczej, co utrudniło reakcję. Z kolei przed wyborami na Węgrzech wspierający Fidesz Narodowy Ruch Oporu opublikował spot z fikcyjną rozmową telefoniczną między szefową KE Ursulą von der Leyen a liderem ówczesnej opozycji Péterem Magyarem. W rozmowie von der Leyen instruuje Magyara, aby natychmiast po wyborach wysłał pieniądze na Ukrainę.

Jednak sztuczna inteligencja używana jest nie tylko przy wyborach. Np. we włoskich mediach jednym z wiodących tematów są obecnie rzekome zdjęcia premier Giorgii Meloni w samej bieliźnie, wygenerowane przez AI. Udostępniła je zresztą też sama Meloni, ostrzegając rodaków, że „deepfaki to niebezpieczne narzędzie, ponieważ mogą oszukiwać, manipulować i uderzać w każdego”. „Ja mogę się bronić. Wielu innych nie” – dodała.

Mimo to polityczni miłośnicy sztucznej inteligencji w Polsce nie widzą w niej nic zdrożnego. – W dzisiejszych czasach wyborcy są przebodźcowani. By ich pobudzić, czymś zainteresować, potrzebny jest mocny impuls – mówi szef Samoobrony Odrodzenia Jerzy Andrzejewski.

I nie wyklucza, że jego partia z takich narzędzi skorzysta ponownie.