ChatGPT staje się kluczową bronią cyberprzestępców – ostrzegają eksperci od bezpieczeństwa IT w firmie Check Point. Hakerzy od dawna wyłudzają od nas dane w sieci, wykorzystując socjotechnikę. Statystyki pokazują, iż ponad 75 proc. ukierunkowanych cyberataków zaczyna się właśnie od fałszywych wiadomości e-mail. Ale teraz udoskonalono ów sposób i do tworzenia przekonujących fałszywych treści, które sprawiają, że klikamy link czy podajemy nasze dane, zaprzęgnięto konwersacyjną sztuczną inteligencję od OpenAI. Specjaliści alarmują: bot coraz częściej i lepiej konstruuje wiadomości phishingowe (wyłudzające dane).
Ale ChatGPT niebezpieczny jest też z innych względów. Analizy firm z branży pokazują, że narzędzie to wyjątkowo chętnie wykorzystywane jest do tworzenia złośliwego oprogramowania (można poprosić bota o napisanie kodu wirusa). Co więcej, w sieci szybko przybywa fałszywych stron imitujących platformę chatbota, a to haczyk na tych, którzy chcą skorzystać z tego narzędzia i nieświadomie wpadają w ręce hakerów.
Czytaj więcej
Wśród przestępców rośnie popularność oprogramowania scareware i leakware, które mają wywołać silne negatywne emocje u ofiary cyberataku.
Wyższy poziom socjotechniki
Zagrożenia bezpieczeństwa IT stają się bardziej wyrafinowane, a tym samym droższe: analitycy przewidują, że globalne koszty cyberprzestępczości osiągną do 2025 r. zawrotny poziom 10,5 bln dol. (jeszcze w 2015 r. było to ok. 3 bln dol.). Obawy podziela zresztą Biuro Informacji Kredytowej, które w ostatnim raporcie „Cyberbezpieczeństwo Polaków” wskazuje, że już niemal siedem na dziesięć ankietowanych osób boi się, że oszuści podszyją się pod jakąś instytucję albo osobę, a oni w dobrej wierze odpowiedzą i przekażą im swoje dane czy dostęp do konta. Dziś to zagrożenie jest bardziej realne niż kiedykolwiek wcześniej. Związek Banków Polskich ocenia wartość kwartalnie udaremnionych prób wyłudzeń z wykorzystaniem danych osobowych na blisko 50 mln zł.