Michał Szułdrzyński: Deep fake i chińska cenzura

Tuż przed Świętem Niepodległości przez branżowe media przewinęła się informacja, która zrobiła na mnie olbrzymie wrażenie. Choć pozornie była to kolejna nowinka technologiczna, opisująca wykorzystanie sztucznej inteligencji, pokazywała pewien trend, którego wszystkie konsekwencje trudno jeszcze dzisiaj przewidzieć, lecz chwila refleksji już dzisiaj każe nam postawić pytanie Piłata: „Czymże jest prawda?".

Aktualizacja: 16.11.2018 20:17 Publikacja: 16.11.2018 18:00

Michał Szułdrzyński: Deep fake i chińska cenzura

Foto: adobestock

Ale po kolei. Chińska agencja informacyjna Xinhua kilka dni temu pokazała światu efekt swej współpracy z technologiczną firmą Sogou. Wiadomości przeczytał całkiem sztucznie wygenerowany cyfrowo prezenter, którego zachowanie i mimika do złudzenia przypominały żywego człowieka. Choć jego głos brzmiał jeszcze odrobinę cyfrowo, to ruchy twarzy idealnie skoordynowane z wypowiadanymi słowami sprawiały wrażenie niezwykłej autentyczności.

Jaki to ma związek z prawdą? Po pierwsze, debiut wirtualnego prezentera zbiegł się w czasie z tekstem w „Financial Timesie" o niezwykłym zaostrzeniu cenzury w Chinach (szerzej pisze o tym Bogusław Chrabota). Ostrze cenzury wymierzono głównie w informacje o spowolnieniu ekonomicznym. A to właśnie niezwykły wzrost gospodarczy był tym, co legitymizowało chińskie władze, które proponowały obywatelom swoisty deal: bogać się i nie zajmuj polityką. Co jednak w sytuacji, gdy gospodarka zwalnia? Po prostu nie mówimy o tym obywatelom. Stosowanie wirtualnych prezenterów, którzy będą sączyć obywatelom rządową propagandę, podniesie tę ostatnią na jeszcze wyższy poziom. Cyfrowy prezenter nie będzie miał przecież wątpliwości etycznych, nie będzie miał rozterek, czy podawane przez niego informacje są prawdziwe. Dziennikarski robot może się stać idealnym narzędziem manipulacji.

Ale drugi problem polega dotyka właśnie prawdy. Funkcjonowanie wirtualnego prezentera oparte jest na technologii DeepFake (czyli głębokie oszustwo), pozwalającej za pomocą komputerów o dużej mocy obliczeniowej oraz algorytmom sztucznej inteligencji podkładać głos pod obraz dowolnej osoby w taki sposób, by widz był przekonany, że widzi, jak jakaś osoba wypowiada te słowa. DeepFake zadebiutował z kolei kilka miesięcy temu, kiedy umieszczono w sieci filmik, na którym widać było prezydenta Obamę „mówiącego" tekst wprowadzony do systemu.

Jako dziennikarz przyzwyczaiłem się, że czasem czyjeś słowa są przekręcane i manipulowane, dlatego często sięgam do źródła, szukam oryginalnego nagrania danej wypowiedzi. I dopiero jak zobaczę na ekranie, opierając się na własnych zmysłach wzroku i słuchu oraz naszej własnej analizie logicznej, jak Donald Tusk czy Andrzej Duda wypowiadają jakieś słowa, zyskuję poczucie pewności. Tego poczucia pozbawia nas jednak sztuczna inteligencja, każe nam wątpić we własne zmysły.

Przyzwyczailiśmy się bezmyślnie nazywać świat, który widzimy na ekranie komputera, tabletu czy telefonu, światem wirtualnym. Ale już dawno zwątpiliśmy w jego wirtualność. Mało tego, dla wielu osób jest on znacznie bardziej realny niż to, co widzą i czego doświadczają wokół siebie. Jeśli jednak zadamy sobie pytanie o to, jakie mogą być konsekwencje stosowania sztucznej inteligencji do takich projektów jak DeepFake czy telewizja Xinhua, stajemy w iście kartezjańskim punkcie. To właśnie Kartezjusz, szukając absolutnej pewności, doprowadził do zsubiektywizowania sposobu patrzenia na świat. No bo skoro szukam absolutnej pewności co do otaczającego mnie świata, pełen wątpliwości, manipulowany i oszukiwany za prawdziwe uznać muszę wyłącznie to, co ja „uznam" za prawdziwe i co mnie „przekona" o swojej prawdziwości.

Jak znaleźć pewność w wirtualnym świecie? Jak nie dać się oszukać? To nie jest puste filozofowanie. Od odpowiedzi na to pytanie zależy również to, czy będziemy wolnymi ludźmi, czy też ktoś za pomocą sztucznej inteligencji kolejnych generacji będzie nami kompletnie manipulował.

PLUS MINUS

Prenumerata sobotniego wydania „Rzeczpospolitej”:

prenumerata.rp.pl/plusminus

tel. 800 12 01 95

Ale po kolei. Chińska agencja informacyjna Xinhua kilka dni temu pokazała światu efekt swej współpracy z technologiczną firmą Sogou. Wiadomości przeczytał całkiem sztucznie wygenerowany cyfrowo prezenter, którego zachowanie i mimika do złudzenia przypominały żywego człowieka. Choć jego głos brzmiał jeszcze odrobinę cyfrowo, to ruchy twarzy idealnie skoordynowane z wypowiadanymi słowami sprawiały wrażenie niezwykłej autentyczności.

Jaki to ma związek z prawdą? Po pierwsze, debiut wirtualnego prezentera zbiegł się w czasie z tekstem w „Financial Timesie" o niezwykłym zaostrzeniu cenzury w Chinach (szerzej pisze o tym Bogusław Chrabota). Ostrze cenzury wymierzono głównie w informacje o spowolnieniu ekonomicznym. A to właśnie niezwykły wzrost gospodarczy był tym, co legitymizowało chińskie władze, które proponowały obywatelom swoisty deal: bogać się i nie zajmuj polityką. Co jednak w sytuacji, gdy gospodarka zwalnia? Po prostu nie mówimy o tym obywatelom. Stosowanie wirtualnych prezenterów, którzy będą sączyć obywatelom rządową propagandę, podniesie tę ostatnią na jeszcze wyższy poziom. Cyfrowy prezenter nie będzie miał przecież wątpliwości etycznych, nie będzie miał rozterek, czy podawane przez niego informacje są prawdziwe. Dziennikarski robot może się stać idealnym narzędziem manipulacji.

Opinie polityczno - społeczne
Dubravka Šuica: Przemoc wobec dzieci może kosztować gospodarkę nawet 8 proc. światowego PKB
Opinie polityczno - społeczne
Piotr Zaremba: Sienkiewicz wagi ciężkiej. Z rządu na unijne salony
Opinie polityczno - społeczne
Kacper Głódkowski z kolektywu kefija: Polska musi zerwać więzi z izraelskim reżimem
Opinie polityczno - społeczne
Zuzanna Dąbrowska: Wybory do PE. PiS w cylindrze eurosceptycznego magika
Opinie polityczno - społeczne
Tusk wygrał z Kaczyńskim, ograł koalicjantów. Czy zmotywuje elektorat na wybory do PE?