Nowa era cyberzagrożeń. Przestępcy z lubością sięgają po ChatGPT

Eksperci IT ostrzegają: coraz częściej do ataków wykorzystywana jest „ofensywna sztuczna inteligencja”. Ta uczy się, jak oszukać człowieka i tworzyć złośliwe kody.

Publikacja: 16.05.2023 03:00

Nowa era cyberzagrożeń. Przestępcy z lubością sięgają po ChatGPT

Foto: Adobe Stock

ChatGPT staje się kluczową bronią cyberprzestępców – ostrzegają eksperci od bezpieczeństwa IT w firmie Check Point. Hakerzy od dawna wyłudzają od nas dane w sieci, wykorzystując socjotechnikę. Statystyki pokazują, iż ponad 75 proc. ukierunkowanych cyberataków zaczyna się właśnie od fałszywych wiadomości e-mail. Ale teraz udoskonalono ów sposób i do tworzenia przekonujących fałszywych treści, które sprawiają, że klikamy link czy podajemy nasze dane, zaprzęgnięto konwersacyjną sztuczną inteligencję od OpenAI. Specjaliści alarmują: bot coraz częściej i lepiej konstruuje wiadomości phishingowe (wyłudzające dane).

Ale ChatGPT niebezpieczny jest też z innych względów. Analizy firm z branży pokazują, że narzędzie to wyjątkowo chętnie wykorzystywane jest do tworzenia złośliwego oprogramowania (można poprosić bota o napisanie kodu wirusa). Co więcej, w sieci szybko przybywa fałszywych stron imitujących platformę chatbota, a to haczyk na tych, którzy chcą skorzystać z tego narzędzia i nieświadomie wpadają w ręce hakerów.

Czytaj więcej

Hakerzy wymuszają okup. Tak coraz chętniej straszą ofiary

Wyższy poziom socjotechniki

Zagrożenia bezpieczeństwa IT stają się bardziej wyrafinowane, a tym samym droższe: analitycy przewidują, że globalne koszty cyberprzestępczości osiągną do 2025 r. zawrotny poziom 10,5 bln dol. (jeszcze w 2015 r. było to ok. 3 bln dol.). Obawy podziela zresztą Biuro Informacji Kredytowej, które w ostatnim raporcie „Cyberbezpieczeństwo Polaków” wskazuje, że już niemal siedem na dziesięć ankietowanych osób boi się, że oszuści podszyją się pod jakąś instytucję albo osobę, a oni w dobrej wierze odpowiedzą i przekażą im swoje dane czy dostęp do konta. Dziś to zagrożenie jest bardziej realne niż kiedykolwiek wcześniej. Związek Banków Polskich ocenia wartość kwartalnie udaremnionych prób wyłudzeń z wykorzystaniem danych osobowych na blisko 50 mln zł.

– Typowe przypadki wyłudzeń to przede wszystkim manipulacja socjotechniczna – przyznaje Andrzej Karpiński, dyrektor Departamentu Bezpieczeństwa Grupy BIK. I podkreśla, że oszuści najczęściej podszywają się pod pracowników banku, firmy telekomunikacyjne i policjantów.

Teraz te techniki, dzięki potężnym możliwościom ChatGPT, hakerzy udoskonalają. Co więcej, wykorzystują bota, by tworzył nie tylko przekonujące treści, ale i złośliwe kody. W efekcie nawet amator może dziś wejść w buty cyberprzestępcy.

Czytaj więcej

Banki mają problem. Sztuczna inteligencja z łatwością obchodzi zabezpieczenia

Nowa era cyberzagrożeń

W sieci pojawiają się też inne zagrożenia oparte na ChatGPT – zespół analityków Bitdefender niedawno zauważył cyberprzestępców kradnących konta na Facebooku przy użyciu złośliwej wersji legalnego rozszerzenia przeglądarki ChatGPT dostępnego w Chrome Web Store. Rozszerzenie, nazwane ChatGPT for Google, zostało pobrane wiele tysięcy razy. – Hakerzy często wykorzystują rozszerzenia do przeglądarek, żeby infekować urządzenia internautów. W tym celu podszywają się pod popularne aplikacje, jak ChatGPT, aby skłonić jak najwięcej osób do pobrania niebezpiecznego pliku. Co ciekawe, bardzo często sfałszowane rozszerzenia faktycznie spełniają swoje funkcje, jednak jednocześnie pobierają i wysyłają hakerowi informacje dotyczące naszej aktywności w sieci – przestrzega Mariusz Politowicz z firmy Marken.

Eksperci twierdzą, że tradycyjne zabezpieczenia mają nikłe szanse w walce z botami, a AI może pokonać tylko AI. Stąd po sztuczną inteligencję sięgają też firmy specjalizujące się w zabezpieczeniach IT. Tym bardziej że dzięki algorytmom można złagodzić inny problem – deficyt specjalistów od cyberbezpieczeństwa (Cybersecurity Workforce Study podaje, iż luka w sile roboczej zespołów wzrosła w ub.r. o 26 proc., a na całym świecie potrzeba już 3,4 mln ekspertów tego typu).

Zdaniem Christiana Putza, country managera w Vectra AI, ofensywna sztuczna inteligencja wykorzystuje swoją zdolność do uczenia się i adaptacji, a to początek nowej ery cyberzagrożeń, w której „wysoce wyspecjalizowane ataki imitujące zachowania człowieka staną się skalowalne i będą odbywać się z prędkością maszyny”. – Po znalezieniu się w docelowej sieci, atakująca AI wykorzysta zdobywane na bieżąco informacje do kierowania atakiem, automatycznie ustalając, gdzie znajdują się najcenniejsze dane. Gdy zespół 15 przestępców może samodzielnie próbować sprowokować błąd ludzki i przeprowadzić dwie zaawansowane operacje równocześnie, sztuczna inteligencja wykona ich 200 – wskazuje Putz.

Wojciech Głażewski, dyrektor zarządzający, Check Point Software w Polsce

Oszustwa z wykorzystaniem socjotechniki stanowią rosnącą i znaczącą część cyberzagrożeń. Najpowszechniejszym sposobem wyłudzania danych i pieniędzy są fałszywe oferty inwestycji lub pilnych nakazów zapłaty za usługi firm. Na poziomie technicznym tworzenie złośliwego oprogramowania staje się coraz łatwiejsze. Mówiąc o inżynierii społecznej, ChatGPT może być użyty do napisania idealnej elektronicznej wiadomości phishingowej w bardzo krótkim czasie. Pozwala też – nawet osobom bez stosownej wiedzy eksperckiej – na napisanie kodu, który zbiera informacje, łącząc się z infrastrukturą będącą celem nieuprawnionego ataku. 

ChatGPT staje się kluczową bronią cyberprzestępców – ostrzegają eksperci od bezpieczeństwa IT w firmie Check Point. Hakerzy od dawna wyłudzają od nas dane w sieci, wykorzystując socjotechnikę. Statystyki pokazują, iż ponad 75 proc. ukierunkowanych cyberataków zaczyna się właśnie od fałszywych wiadomości e-mail. Ale teraz udoskonalono ów sposób i do tworzenia przekonujących fałszywych treści, które sprawiają, że klikamy link czy podajemy nasze dane, zaprzęgnięto konwersacyjną sztuczną inteligencję od OpenAI. Specjaliści alarmują: bot coraz częściej i lepiej konstruuje wiadomości phishingowe (wyłudzające dane).

Pozostało 89% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biznes
Wielkie firmy zawierają sojusz kaucyjny. Wnioski do KE i UOKiK
Biznes
KGHM zaktualizuje strategię i planowane inwestycje
Biznes
Rośnie znaczenie dobrostanu pracownika
Materiał partnera
Handel z drugiej ręki napędza e-commerce
Materiał partnera
TOGETAIR 2024: drogi do ocalenia Ziemi