Boty karmione tajemnicami firm. Sztuczna inteligencja nie powinna o tym wiedzieć

Pracownicy firm nieświadomie ujawniają na masową skalę wrażliwe informacje. A wszystko przez narzędzia generatywnej sztucznej inteligencji. Co czwarte zapytanie wprowadzane przez nich do takich aplikacji AI zawiera dane, które powinny być chronione.

Publikacja: 08.07.2024 04:30

Sztuczna inteligencja. Asystentka

Sztuczna inteligencja. Asystentka

Foto: Adobe Stock

Liczba przedsiębiorstw korzystających z chatbotów dynamicznie rośnie, zdecydowanie szybciej niż świadomość zarządów i pracowników o potencjalnych zagrożeniach związanych z wykorzystaniem takich narzędzi. Jak wynika z najnowszych badań Cyberhaven Labs, ilość danych wprowadzanych do narzędzi genAI (geratywna sztuczna inteligencja) przez pracowników gwałtownie skoczyła – tylko w okresie od marca 2023 r. do marca br. niemal sześciokrotnie.

Czytaj więcej

Z big techami da się walczyć. Czy dojdzie do pozwów zbiorowych nad Wisłą?

Zasada „zero zaufania”

Problem w tym, że pracownicy najczęściej używają AI z prywatnych kont, co może być dla firm i instytucji zagrożeniem. Dlaczego? Bo – jak wylicza Cyberhaven Labs – ponad ¼ informacji wprowadzanych do tych aplikacji to dane wrażliwe. W efekcie wypływają one poza firmy i instytucje, a, co więcej, służą do szkolenia botów.

To ryzyko, o ile przedsiębiorstwa nie korzystają z „zamkniętych”, płatnych narzędzi AI, jak np. ChatGPT Enterprise, lecz z tych ogólnodostępnych, gdzie bezpieczeństwo przetwarzania wpisywanych treści może budzić obawy. Potwierdzają je analitycy Check Point. Firma działająca na rynku cyberochrony mówi wprost: wrażliwe dane, wykorzystywane do szkolenia lub „dostrajania” dużych modeli językowych (LLM), mogą wyciec.

„Nie można ufać modelom LLM w zakresie ochrony wrażliwych danych” – pisze Check Point w raporcie i rekomenduje podejście Zero Trust AI (ang. zero zaufania do sztucznej inteligencji) i traktowanie takich narzędzi jako wymagających ścisłej kontroli dostępu.

Tymczasem Cyberhaven Labs zbadał wzorce korzystania z narzędzi genAI wśród 3 mln pracowników z różnych krajów. W głównej mierze (96 proc.) używali oni chatbotów OpenAI, Google i Microsoftu. A najczęściej byli to przedstawiciele firm technologicznych (w sumie średnio na 100 tys. pracowników tej branży wprowadzono do AI ponad 2 mln zapytań), w mniejszym stopniu mediów i rozrywki czy finansów.

Wnioski są alarmujące. Okazuje się, że pracownicy „karmili” chatboty głównie informacjami związanymi z obsługą klienta (ponad 16 proc.), a to materiały obejmujące poufne dane. Do botów trafiało też wiele innych treści: kod źródłowy (niemal 13 proc. przypadków), dane badawczo-rozwojowe (11 proc.), a nawet wrażliwa dokumentacja dotycząca pracowników (4 proc.), czy dane finansowe (ponad 2 proc.).

Bezpieczeństwo danych zagrożone

Eksperci łapią się za głowę. – Modele AI działają w ten sposób, że dane, którymi są zasilane, stają się częścią ich bazy danych. Wprowadzanie informacji dotyczących organizacji do takich narzędzi może stworzyć ryzyko ich niewłaściwego wykorzystania – ostrzega Natalia Zajic z Safesqr, firmy specjalizującej się w cyberbezpieczeństwie.

Świetnie zdają sobie z tego bankowcy. Tam systemy AI są szeroko wdrażane, ale pod ścisłym nadzorem. Piotr Skopiński, dyrektor Departamentu Rozwoju Aplikacji w Banku Millennium, podkreśla, że najważniejsze jest zrozumienie zasad działania tych narzędzi i pewność, że wszystkie dane klientów są bezpieczne. – Priorytetem przy poznawaniu nowych technologii w banku jest zakres bezpieczeństwa – zaznacza.

Ale w wielu innych sektorach kontrola, co pracownicy „wrzucają” do systemów genAI, jest trudna. Dlatego wedle raportu opracowanego przez Slack, choć popularność narzędzi AI rośnie, kadra kierownicza firm ma wątpliwości powstrzymujące je przed pełnym ich wdrożeniem. Dominują dwie obawy, przy czym podstawowa to właśnie bezpieczeństwo danych i prywatność (ma je ponad 40 proc. dyrektorów). Dopiero na drugim miejscu jest nieufność co do niezawodności wyników AI.

44 proc.

Dla takiego odsetka kadry kierowniczej firm bezpieczeństwo i prywatność to główna obawa

związana z włączeniem sztucznej inteligencji do operacji biznesowych – wynika z raportu Slacka

Fakt, iż ok. 83 proc. firmowych dokumentów trafia do narzędzi genAI z prywatnych kont może prowadzić do wykorzystania tych materiałów w niebezpieczny sposób. Zagrożenia są realne, o czym niedawno przekonali się użytkownicy komputerów Mac. Kilka tygodni temu OpenAI uruchomiło ChatGPT na sprzętach Apple – szybko okazało się, że treści rozmów z botem były przechowywane na komputerze użytkownika w formie… nieszyfrowanego pliku tekstowego.

Wątpliwości jest więcej. Niklas Enge, dyrektor polskiego oddziału firmy Progress, zwraca uwagę np. na problem własności intelektualnej. – Załóżmy, że AI wygenerowała kod na podstawie danych dostarczonych jej przez jedną z firm. Kto w takiej sytuacji jest właścicielem tego kodu – zastanawia się Enge.

Odpowiedzialność za AI ciąży na firmach

Eksperci radzą, by firmy korzystające z LLM tworzyły własne strategie i regulaminy w tym zakresie. Zdaniem Katarzyny Rodackiej z Kancelarii Adwokackiej Pałucki & Szkutnik, wewnętrzne zasady związane z korzystaniem z systemów AI mogą zapewnić ochronę danych osobowych pracowników, kontrahentów i klientów. Wskazuje ona na wytyczne niemieckiego organu ochrony danych osobowych, Hamburgische Beauftragte für Datenschutz und Informationsfreiheit, jakie zostały wydane kilka miesięcy temu. Wynika z nich, że jeśli w firmie nie zostaną określone wewnętrzne regulacje, jak genAI miałaby być używana w codziennej pracy, to należy założyć, że pracownicy będą korzystać z niej w sposób nieupoważniony i niekontrolowany, a odpowiedzialność spadnie na przedsiębiorcę.

Liczba przedsiębiorstw korzystających z chatbotów dynamicznie rośnie, zdecydowanie szybciej niż świadomość zarządów i pracowników o potencjalnych zagrożeniach związanych z wykorzystaniem takich narzędzi. Jak wynika z najnowszych badań Cyberhaven Labs, ilość danych wprowadzanych do narzędzi genAI (geratywna sztuczna inteligencja) przez pracowników gwałtownie skoczyła – tylko w okresie od marca 2023 r. do marca br. niemal sześciokrotnie.

Zasada „zero zaufania”

Pozostało 92% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biznes
To będzie pierwszy taki strajk od 40 lat. Pracownicy Disneylandu mają dość
Materiał Promocyjny
Jak wykorzystać potencjał elektromobilności
Biznes
Rekord na aukcji w Nowym Jorku. Dinozaur Apex wart dziesiątki milionów dolarów
Biznes
Operator Lidla i Kauflandu dostał zezwolenie. Polską kaucję utworzy sześć spółek
Biznes
CrowdStrike przeprasza za awarię, która uszkodziła systemy Windows. „Współpracujemy z klientami”
Biznes
Awaria Microsoftu utrudnia funkcjonowanie firmom w Polsce