Naiwność pomaga AI wyłudzać nasze dane

Ponad 40 proc. badanych, którzy korzystali z generatywnej AI, uważa, że zawsze podaje ona prawdziwe i bezstronne informację. Tymczasem sztuczna inteligencja jest coraz częściej używana przez internetowych oszustów, by wykraść nasze dane i pieniądze.

Publikacja: 22.03.2024 19:54

Naiwność pomaga AI wyłudzać nasze dane

Foto: Adobe Stock

Badania przeprowadzone w listopadzie 2023 r. przez Deloite na grupie ponad 2 tys. polskich internautów w wieku od 18 do 65 lat wykazały, że 47 proc. badanych słyszała o generatywnej sztucznej inteligencji. Dwie trzecie z tych osób choć raz skorzystały z tego rodzaju narzędzi, a z nich 43 proc. spośród badanych korzystających z generatywnej AI uważa, że zawsze podaje ona odpowiedzi oparte na faktach oraz bezstronne.

Jak AI nasz oszukuje i wyłudza dane  

Tymczasem, jak informuje serwis ChrońPESEL, technologia ta coraz częściej używana jest do zdobycia dostępów do kont bankowych lub systemów biznesowych, lecz także profili w mediach społecznościowych, stalkowania czy pisania fałszywych e-maili i SMS-ów w celu wyłudzenia danych osobowych.

Czytaj więcej

Przestępcy wykorzystują AI. Wystarczy im próbka naszego głosu czy zdjęcie

– Jednym z najprostszych zastosowań sztucznej inteligencji do wyłudzenia danych osobowych jest phishing, czyli wysyłanie e-maili podszywających się pod jakąś instytucję, w których jesteśmy proszeni o podanie danych osobowych albo przekierowywani do fałszywych stron internetowych – mówi Bartłomiej Drozd ekspert z ChrońPESEL.

I dodaje, że choć tego rodzaju materiały już tworzone były od dawna, to zwykle łatwo było je odróżnić, gdyż zawierały mnóstwo błędów gramatycznych i ortograficznych. Tymczasem wykorzystywanie dużych modeli językowych coraz częściej eliminuje ten problem, a AI umie bezbłędnie naśladować określony styl tekstu. 

Sztuczna inteligencja podszywa się pod znajomych i bliskich

Szczególnie niebezpieczne w tym kontekście jest tzw. technologia deepfake, czyli „podrabianie” cudzego wizerunku lub głosu. I choć najczęściej słyszy się o tego typu materiałach z udziałem znanych polityków (co też często ma na celu zachęcenie do skorzystania z oferty fałszywej inwestycji, wzbudzając do niej zaufanie), to można wykorzystać ją także do podszycia się pod członków rodziny czy znajomych. Według badań przeprowadzonych przez firmę McAfee na grupie 7000 internautów z siedmiu krajów wynika, że co dziesiąty z nich padł ofiarą takiego oszustwa, a kolejne 15 proc. tego doświadczyła. Ponad połowa badanych deklaruje, że udostępnia swój głos w sieci co najmniej raz w tygodniu. Czy AI Act, przyjęty niedawno przez Parlament Europejski, ma szanse zaradzić tym negatywnym zjawiskom? 

Czytaj więcej

Sztuczna inteligencja już kradnie nam pracę. Niepokojące wyniki badań

AI Akt to za mało na walkę z fałszywymi treściami AI 

– Akt o sztucznej inteligencji jest w tym zakresie dość „ułomny” i wpływ bezpośredni na użytkowników takich narzędzi, także jeśli stosują je w celu dokonania oszustw, jest bardzo ograniczony – mówi dr Michał Nowakowski, partner w ZP Zackiewicz & Partners. – Nieco inaczej kształtuje się sytuacja w przypadku systemów zakazanych i wysokiego ryzyka, ale i tutaj istotne będzie ustalenie podmiotu odpowiedzialnego na gruncie AI Act i mało prawdopodobne, aby systemy z obszaru deep fake podpadały pod którąkolwiek z tych kategorii – dodaje.

Co prawda twórcy narzędzi AI będą musieli zapewnić, że treści przez nie stworzone będą jako takie oznaczane. Ale, jak wskazuje dr Nowakowski, nic nie stoi na przeszkodzie, by takie oznaczenie usunąć (nawet jeśli ma formę znaku wodnego) i kolportować w socialmediach jako autentyczne. Dlatego skuteczniejsze mogą się tu okazać przepisy karne czy odszkodowawcze na poziomie krajowym. Wciąż jednak trudno będzie je egzekwować, np. wobec zagranicznej grupy hakerów.

- Omawiana regulacja nie dezaktualizuje innych obowiązków prawnych, jak chociażby powinności moderacji treści nielegalnych na podstawie aktu o usługach cyfrowych (DSA) czy zobowiązania bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych – wskazuje dr Maria Dymitruk, radca prawny w Olesiński i Wspólnicy. 

Badania przeprowadzone w listopadzie 2023 r. przez Deloite na grupie ponad 2 tys. polskich internautów w wieku od 18 do 65 lat wykazały, że 47 proc. badanych słyszała o generatywnej sztucznej inteligencji. Dwie trzecie z tych osób choć raz skorzystały z tego rodzaju narzędzi, a z nich 43 proc. spośród badanych korzystających z generatywnej AI uważa, że zawsze podaje ona odpowiedzi oparte na faktach oraz bezstronne.

Jak AI nasz oszukuje i wyłudza dane  

Pozostało 89% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Konsumenci
Sąd Najwyższy orzekł w sprawie frankowiczów. Eksperci komentują
Prawo dla Ciebie
TSUE nakłada karę na Polskę. Nie pomogły argumenty o uchodźcach z Ukrainy
Praca, Emerytury i renty
Niepokojące zjawisko w Polsce: renciści coraz młodsi
Prawo karne
CBA zatrzymało znanego adwokata. Za rządów PiS reprezentował Polskę
Aplikacje i egzaminy
Postulski: Nigdy nie zrezygnowałem z bycia dyrektorem KSSiP