Reklama

Jak walczyć z fałszywymi materiałami dla dorosłych generowanymi przez AI?

Deepfake, czyli filmiki z wizerunkiem prawdziwych osób wytworzony przez sztuczną inteligencję, wspomina się głównie w kontekście dezinformacji. Prawo nie do końca przed tym chroni.

Publikacja: 19.03.2025 22:05

Jak walczyć z fałszywymi materiałami dla dorosłych generowanymi przez AI?

Foto: Adobe Stock

O dezinformacji z wykorzystanie mówi głównie w kontekście polityki  czy oszustw finansowych z wykorzystaniem wizerunku znanych osób. Tymczasem, jak wynika z raportu Obserwatorium Demokracji Cyfrowej, do którego dotarła „Rzeczpospolita”, aż 90 proc. zastosowania tej technologii dotyczy „niekonsensualnych syntetycznych podobizn intymnych” potocznie zwanych też „deep porn”. W niemal stu procentach ofiarami tych działań są kobiety (przykładowo, amerykański raport dotyczący stosowania deep porn wobec członków Kongresu wykazał, że na 26 poszkodowanych 25 stanowiły kobiety). 

Dr Karolina Mania (współautorka raportu „Deepfake i nadużycia na tle seksualnym – prawo wobec wyzwań syntretycznych mediów”) – wskazuje, iż ofiary niekonsensualnej pornografii zmagają się z długotrwałymi negatywnymi skutkami psychologicznymi ataków, a wiele kobiet decyduje się na ograniczenie swojej aktywności online w obawie przed ponownym wykorzystaniem ich wizerunku. Konsekwencje mają zatem również wymiar społeczny i polityczny. 

Czytaj więcej

Przestępcy wykorzystują AI. Wystarczy im próbka naszego głosu czy zdjęcie

Tymczasem przepis penalizujący „tradycyjne” naruszenie intymności seksualnej, tj. art. 191a k.k., mówi jedynie, że karze podlega ten, kto „utrwala wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej, używając w tym celu wobec niej przemocy, groźby bezprawnej lub podstępu, albo wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody rozpowszechnia”. Zdaniem autorów raportu taka definicja nie odnosi się wprost do treści wygenerowanych przez AI, a więc ich ściganie w oparciu o ten przepis może być trudne.

– W doktrynie nie ma jednoznacznego podejścia i czasem rozszerzająca interpretacja może nie być uprawniona. Znaczna część syntetycznej pornografii to sytuacje, w których na znany wcześniej materiał nałożono twarz innej kobiety. Dlatego potrzebujemy precyzyjnych przepisów, które będą chronić ofiary – mówi Mateusz Łabuz, jeden ze współautorów raportu.

Reklama
Reklama

I dodaje, że przepisy takie wprowadziły już niektóre stany USA, ale też Wielka Brytania, Australia czy Korea Południowa.

Problem z definicją sztucznej inteligencji i określeniem znamion czynu

Problem jednak w tym, że wprowadzając sankcję karną, trzeba dokładnie określić znamiona czynu zabronionego. A nawet unijny AI Akt nie definiuje samego pojęcia sztucznej inteligencji. Nie daje on też oddzielnych narzędzi do ścigania tego rodzaju deepfake’ów. Zresztą, jak zauważa dr Michał Nowakowski, radca prawny z Zackiewicz & Partners, specjalista z zakresu prawa sztucznej inteligencji, osoby prywatne działające poza sferą zawodową (czyli np. licealista, który stworzył taki materiał na złość koleżance) nie są objęte AI Aktem.

Czytaj więcej

Deepfake podbija pornografię. Zmanipulowane filmy z gwiazdami

– Od dawna też postuluje się zmianę kodeksu karnego, przez wprowadzenie jednoznacznego przepisu zakazującego wykorzystywania wizerunku na potrzeby tworzenia takich deepfake’ów o charakterze pornograficznym – tłumaczy ekspert.

I dodaje, że definicja deepfake’ów (zawarta w art. 50 AI Aktu) jest wystarczająca dla takiej ochrony, nie trzeba w tym celu definiować prawnie samej sztucznej inteligencji (szczególnie aspektów technicznych), co byłoby bardzo trudne i niecelowe.

– Przepis powinien jednak wprost zakazywać wykorzystywania rezultatów wykorzystania rozwiązania, np. w odniesieniu do niekonsensualnych materiałów pornograficznych. Precyzja jest tutaj niezbędna, bo mówimy o odpowiedzialności karnej. Nie można też doprowadzić do całkowitego zakazu stosowania deepfake’ów jako takich. Mimo negatywnych konotacji z nazwą „deepfake” jest ona czasem przydatna i potrzebna – tłumaczy ekspert.

Reklama
Reklama

Inną nadzieją na pomoc ofiarom jest unijna dyrektywa ws. zwalczania przemocy domowej i przemocy wobec kobiet. Wprost nakazuje ona penalizację opisanych wyżej praktyk – a termin na jej wdrożenie Polska ma do 14 czerwca 2027 r.

Przepisy mają też chronić małoletnich

Inaczej sprawa wygląda w przypadku „syntetycznej pornografii” z udziałem małoletnich. Wówczas w przypadku udostępniania nie ma znaczenia, czy jest to możliwe do zidentyfikowania dziecko, czy nie, gdyż samo rozpowszechnianie takich treści jest szkodliwe społecznie. Przepisy te mają chronić nie tylko konkretne dziecko, ale i całe społeczeństwo. Ponadto na poziomie udostępniania różnicowanie odpowiedzialności w zależności, czy chodzi o prawdziwe nagranie, czy deepfake, pozwalałoby sprawcom na kwestionowanie autentyczności treści. Takie zjawiska są już opisywane jako deep fake defence i stanowią zagrożenie dla systemu sprawiedliwości. Aktualnie nawet biegli mają problemy z odróżnieniem prawdziwych nagrań od tych wygenerowanych przez AI.
– Różnicowany tu mógłby być rozmiar kary. Ale dla nieświadomego odbiorcy, który nie wie, że nie ma do czynienia z prawdziwym dzieckiem, wartość materiału jest taka sama – mówi Mateusz Łabuz. – Biegli już teraz mają pełne ręce roboty w odróżnianiu takich treści, co sprawia, że ściganie osób, które dopuściły się skrzywdzenia prawdziwych dzieci, jest utrudnione, a pomoc dla ofiar może przyjść później lub wręcz wcale. A przecież technologia wciąż się rozwija. 

Art. 202. § 4b. k.k., penalizujący m.in. produkowanie pornografii z udziałem małoletnich, mówi wprost o „wytworzonym lub przetworzonym wizerunku” dziecka, co znajduje zastosowanie także do treści generowanych przez AI. Zdaniem dr. hab. Mikołaja Małeckiego z UJ (również współautora raportu) nie wystarcza to jednak do skutecznego penalizowania nowych form przestępstw, gdyż przepisy nie są dostosowane do nowej rzeczywistości technologicznej. Dr Małecki podkreśla, że w niektórych sytuacjach treści generowane przez AI powinny być traktowane jak treści z udziałem prawdziwych małoletnich. 

Co mówią przepisy
Dyrektywa 2024/1385 ws. zwalczania przemocy wobec kobiet i przemocy domowej

Odnośne przestępstwo (…) powinno obejmować wszystkie rodzaje takich treści (…), w tym obrazy oraz nagrania audio i wideo nacechowane seksualnie. Powinno ono odnosić się do sytuacji, w których publiczne udostępnianie treści za pomocą ICT [technologii komunikacyjno-informacyjnych] odbywa się bez zgody ofiary, niezależnie od tego, czy ofiara wyraziła zgodę na wytworzenie takich treści bądź przesłała je konkretnej osobie. Przestępstwo to powinno również obejmować wytwarzanie treści bez zgody lub manipulowanie nimi lub ich zmienianie, np. przez edytowanie obrazów, m.in. z wykorzystaniem sztucznej inteligencji, które to treści sprawiają wrażenie, że osoba uczestniczy w czynnościach seksualnych, o ile treści te są następnie udostępniane publicznie za pośrednictwem ICT bez zgody tej osoby. Takie wytwarzanie, manipulowanie lub zmienianie powinno obejmować wytwarzanie treści »deepfake«, w których prezentuje się osoby, przedmioty, miejsca lub inne podmioty bądź wydarzenia wyraźnie podobne do istniejących naprawdę i które przedstawiają czynności seksualne danej osoby i błędnie wydają się innym osobom autentyczne lub prawdziwe. 

Praca, Emerytury i renty
O tym zasiłku mało kto wie. Wypłaca go MOPS niezależnie od dochodu
Prawo drogowe
Koniec mandatów za zieloną strzałkę? Ministerstwo szykuje rewolucyjne zmiany
Nieruchomości
Zmiany w spółdzielniach mieszkaniowych. Kolejny zwrot ws. adwokatów i radców
Prawo w Polsce
Dramat warszawskich rodzin. Nawet miesiąc oczekiwania na pogrzeby bliskich
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Prawo w Polsce
Twoje dziecko jest ofiarą hejtu? Sprawdź, jakie kroki prawne możesz podjąć
Materiał Promocyjny
Jak rozwiązać problem rosnącej góry ubrań
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama