Reklama

Nowe prawo ochroni przed deepfake'ami? Prezes UODO ma propozycję

Prezes Urzędu Ochrony Danych Osobowych postuluje wprowadzenie przepisów, które będą regulować odpowiedzialność prawną za rozpowszechnianie fałszywych treści w postaci deepfake’ów.

Publikacja: 18.09.2025 14:43

Deepfaki to sztucznie generowane lub manipulowane obrazy, które mogą uchodzić za autentyczne.

Deepfaki to sztucznie generowane lub manipulowane obrazy, które mogą uchodzić za autentyczne.

Foto: Adobe Stock

Przed ostatnimi prawyborami w USA doszło do niepokojącego incydentu – Amerykanie, odbierając telefon, usłyszeli po drugiej stronie ówczesnego prezydenta Joe Bidena, który zniechęcał ich do udziału w głosowaniu. Klon głosu prezydenta doprowadził do ostrego zamieszania. To jeden z najgłośniejszych przypadków wykorzystania sztucznej inteligencji do dezinformacji. Przykładów nadużyć jest bardzo dużo. W Polsce ofiarą technologii deepfake padł prof. Jerzy Szaflik. Jak informowaliśmy na łamach rp.pl, wizerunek tego znanego okulisty i specjalisty w dziedzinie leczenia chorób oczu został bezprawnie wykorzystany – dzięki deepfake – do reklamy preparatu, którego medyk nigdy nie polecał swoim pacjentom.

Problem staje się na tyle poważny, iż zdaniem Prezesa Urzędu Ochrony Danych Osobowych wymaga oddzielnej regulacji prawnej. W swoim najnowszym wystąpieniu do wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego, Mirosław Wróblewski wyjaśnia, że zmiany są konieczne, gdyż „technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są”. Zaznacza przy tym, że „sama technologia jest neutralna i może służyć do tworzenia np. efektów specjalnych w filmach, jednak może prowadzić do nadużyć, w tym naruszania praw i wolności ludzi na niespotykaną dotychczas skalę”.

Czytaj więcej

Rafał Rozwadowski, Przemysław Sotowski: Czy prawo radzi sobie z deepfake’ami?

Przepisy anty-deepfake. Jak miałyby działać?

Wśród zagrożeń, jakie niesie ze sobą technologia deepfake, Prezes UODO wskazuje m.in. na wykorzystywanie wizerunku danej osoby bez jej wiedzy i zgody oraz kradzież tożsamości (ułatwia podszywanie się pod inne osoby). Technologia ta może posłużyć także do szantażu i nękania, gdyż umożliwia ukazanie osoby w sytuacjach, które w rzeczywistości nie miały miejsca. Prezes UODO zwrócił również uwagę, że deepfake’i mogą posłużyć do preparowania dowodów sądowych oraz stanowić zagrożenie dla bezpieczeństwa narodowego lub bezpieczeństwa systemów informacji podmiotów publicznych i prywatnych. „Deepfake może być wykorzystywany do manipulacji politycznej (w szczególności podczas prowadzenia kampanii wyborczych), polaryzacji społecznej, zamieszek czy konfliktów z użyciem przemocy” – wylicza. 

Zdaniem Wróblewskiego obecnie obowiązujące regulacje (przepisy ustawy o prawie autorskim i prawach pokrewnych, Kodeks cywilny czy RODO) nie zapewniają narzędzi do pełnej i skutecznej ochrony przed skutkami takich nadużyć, dlatego do polskiego porządku prawnego należy wprowadzić przepisy, które będą regulować odpowiedzialność prawną za rozpowszechnianie fałszywych treści w postaci deepfake’ów, a także zapewnią skuteczną ochronę danych osobowych.

Reklama
Reklama

Jak mogłyby one działać? W wystąpieniu podano przykład Danii, gdzie przygotowywany jest projekt nowelizacji prawa autorskiego, który ma doprowadzić do tego, że obywatele będą mogli żądać usunięcia deepfake’ów z platform online oraz dochodzić odszkodowania za naruszenia. Inną możliwością jest zobowiązanie platform technologicznych do instalowania systemów automatycznego i skutecznego wykrywania oraz oznaczania deepfake’ów.

Czytaj więcej

Jak walczyć z fałszywymi materiałami dla dorosłych generowanymi przez AI?

Przed ostatnimi prawyborami w USA doszło do niepokojącego incydentu – Amerykanie, odbierając telefon, usłyszeli po drugiej stronie ówczesnego prezydenta Joe Bidena, który zniechęcał ich do udziału w głosowaniu. Klon głosu prezydenta doprowadził do ostrego zamieszania. To jeden z najgłośniejszych przypadków wykorzystania sztucznej inteligencji do dezinformacji. Przykładów nadużyć jest bardzo dużo. W Polsce ofiarą technologii deepfake padł prof. Jerzy Szaflik. Jak informowaliśmy na łamach rp.pl, wizerunek tego znanego okulisty i specjalisty w dziedzinie leczenia chorób oczu został bezprawnie wykorzystany – dzięki deepfake – do reklamy preparatu, którego medyk nigdy nie polecał swoim pacjentom.

Pozostało jeszcze 80% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Praca, Emerytury i renty
„Lewaków i morderców nienarodzonych nie zatrudniamy”. Sąd o dyskryminacji przy rekrutacji
Prawo rodzinne
Sąd Najwyższy wydał ważny wyrok dla konkubentów. Muszą się rozliczyć jak po rozwodzie
Prawo w Polsce
Kiedy można zmienić kategorię wojskową? Oto jak wygląda procedura
Prawo w Polsce
Czy za radio w aucie trzeba płacić abonament RTV? Prawo mówi jasno
Konsumenci
Przełomowe orzeczenie SN w sprawie frankowiczów. Wyrok TSUE nie zmieni rozliczeń z bankami
Reklama
Reklama