Reklama

Dziennikarka TVP ofiarą pomówień wspomaganych przez AI. Jak walczyć z oczernianiem?

Użycie sztucznej inteligencji nie jest wystarczającą weryfikacją faktów. Za publiczne oczernianie grożą konsekwencje prawne - tak prawnicy komentują sprawę Joanny Dunikowskiej-Paź, dziennikarki TVP, której przypisano cudze słowa jakoby szkalujące prezydenta.

Publikacja: 21.08.2025 18:42

Dziennikarka TVP ofiarą pomówień wspomaganych przez AI. Jak walczyć z oczernianiem?

Warszawa, 28.08.2024 r. Dziennikarka TVP Joanna Dunikowska-Paź

Foto: FOTON/PAP

Z tego artykułu dowiesz się:

  • Jakie są konsekwencje prawne związane z rozpowszechnianiem fałszywych informacji generowanych przez sztuczną inteligencję?
  • W jaki sposób można prawnie bronić się przed nieprawdziwymi oskarżeniami?
  • Jakie mechanizmy zapobiegawcze zaleca się stosować, aby unikać problemów związanych z AI?
  • Jak policja identyfikuje autorów groźnych i oszczerczych treści w internecie?
  • Jakie kroki można podjąć w przypadku naruszenia dóbr osobistych?

Sprawa rozsiewania nieprawdziwych informacji o dziennikarce TVP Joannie Dunikowskiej-Paź ma interesujące tło prawne. W opinii ekspertów można dać silny odpór prawny podobnym atakom. Dla łamiących prawo i dobre obyczaje nie może być usprawiedliwieniem błędna weryfikacja faktów przez sztuczną inteligencję (AI).

Choć ta sprawa już została nagłośniona przez różne media, to opiszmy ją pokrótce. Wszystko zaczęło się podczas konferencji prasowej wicepremiera i ministra obrony narodowej Władysława Kosiniaka-Kamysza.

Czytaj więcej

Kataryna: Grok przypomniał, jacy naprawdę są politycy w dobrze skrojonych garniturach

Awantura o prezydenckie inicjały. Joanny Dunikowskiej-Paź nie było na konferencji

– Czy planuje pan konsultacje z K. N. przed wylotem do USA? – zapytała bydgoska dziennikarka z prywatnej telewizji.

Reklama
Reklama

Jak się okazało, miała na myśli prezydenta Karola Nawrockiego. Sam Kosiniak-Kamysz krótko zwrócił jej uwagę, że należałoby używać pełnego imienia i nazwiska. Wiele innych mediów, zwłaszcza kibicujących prezydentowi, poszło jeszcze dalej i uznało użycie samych tylko inicjałów za obrazę najważniejszej osoby w państwie.

Oliwy do ognia dolała Marzena Paczuska, członkini Krajowej Rady Radiofonii i Telewizji. Użyła Groka, czyli narzędzia sztucznej inteligencji (AI) funkcjonującego w ramach serwisu X (dawny Twitter). Na pytanie, kim była owa dziennikarka, Grok odpowiedział, że to Joanna Dunikowska-Paź z TVP, a forma zadania pytania wynika z przyczyn politycznych. Wtedy wiele mediów podchwyciło upublicznioną przez Paczuską informację i bez jakiejkolwiek weryfikacji zaczęło ostro krytykować poziom dziennikarstwa w TVP.

Sama Dunikowska-Paź dostała od wielu internautów groźby ogolenia głowy albo nawet publicznej egzekucji. Nie pomogło zdecydowane oświadczenie rzecznika prasowego MON, że w ogóle nie było jej na konferencji Kosiniaka-Kamysza.

Telewizja Polska wydała oświadczenie potępiające takie działania. Zapowiedziała podjęcie kroków prawnych i zawiadomienie prokuratury. Na razie prawnicy TVP nie ujawniają szczegółów swoich działań.

Grok obwinia Joannę Dunikowską-Paź. Kłamstwo człowieka i kłamstwo AI to jedno

Taka sytuacja może dotyczyć nie tylko znanych dziennikarzy, ale każdego, komu przez przypadek zostałyby przypisane czyny, których nie popełnił. Co w takiej sprawie można zrobić?

Jak zauważa dr Maria Dymitruk, radczyni prawna w kancelarii Lubasz i Wspólnicy, w sprawie dziennikarki TVP dość istotna jest kwestia nieprawdziwej informacji wygenerowanej przez model językowy Grok. Otóż każdy posługujący się tą usługą musi najpierw zaakceptować jej regulamin.

Reklama
Reklama

Czytaj więcej

"To przestępstwo". Prawnicy o komentarzach pod adresem Kasi Nawrockiej

– Tymczasem w regulaminie Groka wyraźnie wskazano, że jego dostawca, czyli amerykańska firma ze stanu Nevada, nie odpowiada za treści wygenerowane przez to narzędzie. Odpowiedzialność za treści wprowadzane do narzędzia i za jego pomocą otrzymywane, w tym za zapewnienie, że nie naruszają one prawa, ponosi użytkownik czy też osoba, która takie treści rozpowszechnia – zauważa prawniczka.

Dodaje, że od strony prawnej nie ma różnicy pomiędzy rozpowszechnianiem kłamstwa, którego autorem jest człowiek i kłamstwa stworzonego przez sztuczną inteligencję.

Wcześniej zdarzyło się wiele przypadków, w których Grok generował treści wręcz awanturnicze, zniesławiające wiele osób.

– Jego algorytm bazuje bowiem na treściach z portalu X, które są często nacechowane silnymi negatywnymi emocjami. Jeśli ktoś zawodowo zajmuje się mediami, powinien to brać pod uwagę i z tym większą ostrożnością podchodzić do rewelacji generowanych przez to narzędzie – komentuje Maria Dymitruk.

Europejskie rozporządzenie w sprawie sztucznej inteligencji, czyli AI Act, zobowiązuje dostawców modeli językowych takich jak Grok do upublicznienia informacji na temat treści wykorzystanych do trenowania danego modelu AI. Grok będzie musiał to uczynić najpóźniej do 2 sierpnia 2027 r. Jednak nawet takie upublicznienie nie zmieni faktu, że odpowiedzialność dostawcy za generowane treści jest wyłączona.

Reklama
Reklama

Policja bez trudu namierzy dziś hejtera

W odróżnieniu od mało skutecznych tu przepisów o AI, w takich sprawach powinno zadziałać prawo karne. Adwokat Radosław Baszuk przypomina, że grożenie komuś śmiercią lub uszkodzeniem ciała to tzw. groźba karalna z art. 190 kodeksu karnego.

– Gdy takie groźby mają charakter ciągły, jest to już uporczywe nękanie, zagrożone surowszą karą, nawet do 8 lat pozbawienia wolności. Ściganie w takim przypadku prowadzi prokuratura na wniosek pokrzywdzonej osoby – tłumaczy adwokat.

Dodaje, że można też rozważać prywatne oskarżenie o przestępstwo z art. 212 Kodeksu karnego, czyli o zniesławienie.

Czytaj więcej

Leszek Kieliszewski: Dwa remedia na wirtualny lincz

Niezależnie od typu przestępstwa, trzeba je udowodnić. Jeśli groźby lub oszczerstwa są formułowane w internecie, powinno się ustalić sprawcę na podstawie numeru IP urządzenia, z którego takie treści były wysyłane. Jak jednak zauważa Radosław Baszuk, dziś dla organów ścigania nie jest to problemem.

Reklama
Reklama

– W każdej rejonowej komendzie policji są już specjaliści od przestępstw w sieci, a więc w praktyce takie postępowania idą całkiem sprawnie. Zwykle najdalej w kilka miesięcy udaje się ustalić, kto był posiadaczem urządzenia, do którego jest przypisany konkretny adres IP – relacjonuje adwokat.

Warto zadziałać w sądzie i u administratora portalu społecznościowego

Oprócz drogi karnej jest jeszcze możliwość złożenia pozwu cywilnego o odszkodowanie za naruszenie dóbr osobistych, w tym dobrego imienia. Jak zauważa adwokat Dariusz Pluta, dziennikarz jest osobą publiczną, która powinna być odporna na krytykę.

– Jeśli jednak przypisuje mu się czyny, których nie popełnił, to przekracza już granice krytyki. W takich sytuacjach powinno się zażądać sprostowania nieprawdziwych informacji, a jeśli to nie nastąpi, można wystąpić do sądu – proponuje prawnik.

Mecenas Pluta zauważa, że w tej konkretnej sytuacji dość łatwo można było zweryfikować, kto wypowiedział nieeleganckie słowa określające urzędującego prezydenta.

– Ubolewania godne jest to, że do tych zdarzeń doszło między dziennikarzami, których obowiązkiem jest przecież sprawdzanie prawdziwości uzyskanych informacji przed ich wypuszczeniem w obieg publiczny – zauważa prawnik.

Reklama
Reklama

Co jeszcze można zrobić? Adwokat Maciej Ślusarek radzi, by wszelkie wpisy zawierające hejt, elementy zniesławienia czy mowy nienawiści, zgłaszać administratorom portali społecznościowych.

– W tym celu można wystąpić do platform, by zablokowały one dostęp do tego rodzaju wpisów jako treści niezgodnych z prawem, w szczególności z kodeksem cywilnym czy kodeksem karnym – proponuje adwokat.

Podkreśla on, że administratorzy mają obowiązek niezwłocznego usunięcia takich treści na mocy rozporządzenia o usługach cyfrowych (DSA).

Z kolei adw. Dariusz Pluta zauważa, że osoba publiczna nie tylko może, ale wręcz powinna podjąć działania prawne.

– Chodzi o to, by zniechęcić do rozpowszechniania się podobnych praktyk – mówi mec. Pluta.

Reklama
Reklama
Opinia dla "Rzeczpospolitej"
Joanna Dunikowska-Paź, dziennikarka TVP

Jako dziennikarze, czyli osoby publiczne, powinniśmy wiedzieć, że wypowiedziane dla szerokiego kręgu odbiorców słowa mają znaczenie. Trzeba zatem ponosić za nie odpowiedzialność. Dlatego nie powinniśmy pozostawiać takich spraw bez reakcji. W tej nieprzyjemnej dla mnie sytuacji, mam jednak wsparcie w silnym medium, jakim jest moja redakcja i Telewizja Polska. Jednak z przerażeniem myślę o wielu osobach, zwłaszcza młodych, które takiego wsparcia nie mają, a też są ofiarami oczerniania i to przy użyciu sztucznej inteligencji.

Z tego artykułu dowiesz się:

  • Jakie są konsekwencje prawne związane z rozpowszechnianiem fałszywych informacji generowanych przez sztuczną inteligencję?
  • W jaki sposób można prawnie bronić się przed nieprawdziwymi oskarżeniami?
  • Jakie mechanizmy zapobiegawcze zaleca się stosować, aby unikać problemów związanych z AI?
  • Jak policja identyfikuje autorów groźnych i oszczerczych treści w internecie?
  • Jakie kroki można podjąć w przypadku naruszenia dóbr osobistych?
Pozostało jeszcze 95% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Reklama
Sądy i trybunały
Plan ministra Żurka na reaktywację KRS. Konstytucjonalista: nielegalne działanie
Nieruchomości
Sąd Najwyższy wydał ważny wyrok ws. zasiedzenia służebności przesyłu
Sądy i trybunały
Przewodnicząca KRS: Sędzia Ulman nie znalazł czasu, by osobiście pojawić się w KRS
Prawo w Polsce
Karol Nawrocki chce zmienić ustrój. Są nieoficjalne informacje o nowej konstytucji
Matura i egzamin ósmoklasisty
CKE podała terminy egzaminów w 2026 roku. Zmieni się też harmonogram ferii
Reklama
Reklama