Przed ostatnimi prawyborami w USA doszło do niepokojącego incydentu – Amerykanie, odbierając telefon, usłyszeli po drugiej stronie ówczesnego prezydenta Joe Bidena, który zniechęcał ich do udziału w głosowaniu. Klon głosu prezydenta doprowadził do ostrego zamieszania. To jeden z najgłośniejszych przypadków wykorzystania sztucznej inteligencji do dezinformacji. Przykładów nadużyć jest bardzo dużo. W Polsce ofiarą technologii deepfake padł prof. Jerzy Szaflik. Jak informowaliśmy na łamach rp.pl, wizerunek tego znanego okulisty i specjalisty w dziedzinie leczenia chorób oczu został bezprawnie wykorzystany – dzięki deepfake – do reklamy preparatu, którego medyk nigdy nie polecał swoim pacjentom.
Problem staje się na tyle poważny, iż zdaniem Prezesa Urzędu Ochrony Danych Osobowych wymaga oddzielnej regulacji prawnej. W swoim najnowszym wystąpieniu do wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego, Mirosław Wróblewski wyjaśnia, że zmiany są konieczne, gdyż „technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są”. Zaznacza przy tym, że „sama technologia jest neutralna i może służyć do tworzenia np. efektów specjalnych w filmach, jednak może prowadzić do nadużyć, w tym naruszania praw i wolności ludzi na niespotykaną dotychczas skalę”.
Czytaj więcej
Prawodawcy na całym świecie zwracają uwagę na problem tworzenia i przestępczego wykorzystywania t...
Przepisy anty-deepfake. Jak miałyby działać?
Wśród zagrożeń, jakie niesie ze sobą technologia deepfake, Prezes UODO wskazuje m.in. na wykorzystywanie wizerunku danej osoby bez jej wiedzy i zgody oraz kradzież tożsamości (ułatwia podszywanie się pod inne osoby). Technologia ta może posłużyć także do szantażu i nękania, gdyż umożliwia ukazanie osoby w sytuacjach, które w rzeczywistości nie miały miejsca. Prezes UODO zwrócił również uwagę, że deepfake’i mogą posłużyć do preparowania dowodów sądowych oraz stanowić zagrożenie dla bezpieczeństwa narodowego lub bezpieczeństwa systemów informacji podmiotów publicznych i prywatnych. „Deepfake może być wykorzystywany do manipulacji politycznej (w szczególności podczas prowadzenia kampanii wyborczych), polaryzacji społecznej, zamieszek czy konfliktów z użyciem przemocy” – wylicza.
Zdaniem Wróblewskiego obecnie obowiązujące regulacje (przepisy ustawy o prawie autorskim i prawach pokrewnych, Kodeks cywilny czy RODO) nie zapewniają narzędzi do pełnej i skutecznej ochrony przed skutkami takich nadużyć, dlatego do polskiego porządku prawnego należy wprowadzić przepisy, które będą regulować odpowiedzialność prawną za rozpowszechnianie fałszywych treści w postaci deepfake’ów, a także zapewnią skuteczną ochronę danych osobowych.