Przestępcy wykorzystują AI. Wystarczy im próbka naszego głosu czy zdjęcie

Prokuratura przyznaje, że przestępcy coraz częściej sięgają po narzędzia sztucznej inteligencji, a liczba podobnych przypadków będzie wzrastać. Eksperci alarmują, że prawo już teraz nie nadąża za cyfrową rzeczywistością. Czy unijny AI Act wystarczy?

Publikacja: 29.02.2024 13:11

Przestępcy wykorzystują AI. Wystarczy im próbka naszego głosu czy zdjęcie

Foto: Adobe Stock

Prokuratura Krajowa nie prowadzi statystyk spraw, w których wykorzystano AI lub ML (czyli uczenie maszynowe), jednak analiza przypadków związanych z cyberprzestępczością pokazuje, że sprawcy coraz chętniej sięgają po jej narzędzia. PK przewiduje, że będą robić to nadal, m.in. podszywając się pod firmy kurierskie czy urzędy administracji publicznej po to, by wyłudzić dane do logowania do kont bankowych, kont w mediach społecznościowych czy systemów biznesowych. A także do stalkowania swoich ofiar, czy kreowania nieprawdziwych, ale już bezbłędnie napisanych maili i SMS-ów w obcych językach.

Prokuratura: wysyp reklam fałszywych platform inwestycyjnych

Problemem jest też zjawisko deepfaków generujących fałszywe obrazy i filmy. - W ostatnich miesiącach aktywne były ataki, w których generowano reklamy fałszywych platform inwestycyjnych – podszywających się np. pod Baltic Pipe – i wykorzystujące wizerunek znanych osób, w tym polityków – przypomina rzecznik PK Przemysław Nowak. Jak dodaje, w tym zakresie prowadzone są postępowania przygotowawcze. Zapewnia, że wszelkie działania analizowane są przez specjalistów z prokuratury.

Adw. Judyta Kasperkiewicz z EPOQUE Kancelaria Adwokacka ocenia, że prawo po prostu nie nadąża za rozwojem nowych technologii. Jej zdaniem nadziei na odwrócenie tego trendu można upatrywać w unijnym akcie o sztucznej inteligencji, jednak jego wdrożenie to perspektywa dwóch lat. - W tym czasie technologia będzie się rozwijać. Poza tym zapisy aktu mają co prawda odnosić się do działalności zarówno podmiotów publicznych, jak i podmiotów prywatnych, ale nie będzie tam rozwiązań dopuszczających ich karanie – komentuje specjalistka od cyberprzestępczości

Czytaj więcej

AI Act tuż-tuż. Mało czasu na wdrożenie przepisów ws. sztucznej inteligencji

Uczniowie wykorzystali AI i zdjęcia nauczycielki, by „nagrać” film dla dorosłych

Tymczasem przykłady z życia codziennego pokazują, jak – w ocenie adwokatki - poważny jest ten problem. - Ostatnio zetknęłam się z sytuacją, w której uczniowie stworzyli film pornograficzny wykorzystując z nim wizerunek jednej ze swojej nauczycielek – relacjonuje. Jak precyzuje, w takim przypadku osoba pokrzywdzona mogłaby próbować pociągnąć do odpowiedzialności pełnoletnich sprawców, ale nie w każdej sytuacji kwestia ta jest aż tak oczywista. A ustalenie, kto powinien odpowiedzieć np. za kradzież danych pacjenta z nieszczelnego systemu, wykorzystującego w procesie leczenia AI, mogłoby okazać się znacznie bardziej skomplikowane. - Teoretycznie to osoba zarządzająca podmiotem leczniczym mogłaby usłyszeć zarzut narażenia pacjenta na niebezpieczeństwo – analizuje mec. Kasperkiewicz. Sama, wnioskując do różnych organów o udostępnienie informacji publicznej, wielokrotnie otrzymywała odpowiedź, że dane dotyczące algorytmu ma podmiot dostarczający konkretne rozwiązanie technologiczne - i tutaj pojawia się problem ochrony tajemnicy przedsiębiorstwa lub ochrony patentowej. Z kolei w ewentualnym postępowaniu karnym mogłoby nim być znalezienie biegłych, którzy oceniliby nieprawidłowości w działaniu takiego algorytmu.

Zdaniem dr. Michała Nowakowskiego z Polskiego Towarzystwa Informatycznego, partnera AI & CyberSec w ZP Zackiewicz & Partners, obecnie zakup narzędzi pomagających chronić się przed niewłaściwie wykorzystywaną AI bywa nieopłacalny. - Na przykład bankowi może nie kalkulować się – jeszcze - zainwestowanie w rozwiązanie, które pozwoli rozpoznać, czy twarz klienta przy otwarciu rachunku bankowego nie jest deep fakem, biorąc pod uwagę jego cenę i liczbę tego typu przypadków. Poza tym nie ma pewności, że ono na pewno zadziała – uzasadnia.

Ekspert: wzrasta jakość i dostępność narzędzi AI, jest szara strefa programów

Specjalista podziela pogląd, że sama edukacja nie wystarczy, bo potrzebne są regulacje prawne. Uważa też, wprowadzenie zapisów aktu o AI nie zwiększy ochrony przed przestępstwami, bo na ich podstawie nie będzie można penalizować szkodliwych działań. Zaś dane, które gromadzić mogłyby policja i prokuratura, i tak nie odzwierciedlałyby skali zdarzeń, często przecież niezgłaszanych.

Czytaj więcej

Jak określić zakres wymogów dla „operatora” systemu AI

Dr Nowakowski zauważa przy tym, że wzrasta jakość i dostępność narzędzi AI. - Już teraz za niewielkie pieniądze każdy może wykupić dostęp do programu, który – na podstawie dostarczonej mu próbki głosu z Facebooka czy Instagrama – wygeneruje dla nas „głos” konkretnej osoby. Poza tym istnieje szara strefa programów, w których wygenerować można np. nagą sylwetkę osoby na dostarczonym przez nas zdjęciu – wskazuje specjalista.

Jak podkreśla, walka z operatorami programów, które pozwalają na generowanie np. wizerunków bez ubrania byłaby bardzo trudna, bo ich siedziby mogą być zarejestrowane w odległych krajach. Jednak pozostawienie ich działań bez reakcji to zachęta do rozwijania biznesu.

Zawody prawnicze
Korneluk uchyla polecenie Święczkowskiego ws. owoców zatrutego drzewa
Zdrowie
Mec. Daniłowicz: Zły stan zdrowia myśliwych nie jest przyczyną wypadków na polowaniach
Nieruchomości
Odszkodowanie dla Agnes Trawny za ziemię na Mazurach. Będzie apelacja
Sądy i trybunały
Wymiana prezesów sądów na Śląsku i w Zagłębiu. Nie wszędzie Bodnar dostał zgodę
Sądy i trybunały
Rośnie lawina skarg kasacyjnych do Naczelnego Sądu Administracyjnego