Reklama

Bartosz Łabęcki, Łukasz Wieczorek: Wiedza o AI pomoże okiełznać nie tylko chińskiego smoka

AI Act wymaga rozwijania kompetencji osób tworzących i korzystających z systemów sztucznej inteligencji. Kluczowe jest tu ewolucyjne podejście.

Publikacja: 20.02.2025 13:54

Bartosz Łabęcki, Łukasz Wieczorek: Wiedza o AI pomoże okiełznać nie tylko chińskiego smoka

Foto: Adobe Stock

Rynkowy debiut DeepSeek, nowego chatbota rodem z Chin, zbiegł się w czasie z wejściem w życie kolejnej partii przepisów AI Act – m.in. tzw. obowiązku AI Literacy. Unia Europejska oczekuje rozwijania kompetencji w zakresie AI w przypadku osób zatrudnionych w podmiotach tworzących i korzystających z rozwiązań opartych na sztucznej inteligencji.

Takie narzędzia AI jak np. DeepSeek generują szereg ryzyk prawno-biznesowych, a świadomość w tym względzie jest wciąż relatywnie niska. Tymczasem edukowanie w zakresie AI stało się prawnym obowiązkiem.

Systemy AI. Jest DeepSeek, czyli nowe narzędzie z Chin, ale pozostają stare problemy

Światło jupiterów padło na Chiny za sprawą narzędzia DeepSeek, którego darmowa wersja błyskawicznie stała się numerem jeden wśród aplikacji w kategorii AI. Chiński smok z impetem rzucił rękawicę już obecnym na rynku dostawcom popularnych chatbotów. Podczas gdy twórcy ChatGPT, Gemini czy Copilot, zastanawiają się, jak odpowiedzieć na DeepSeek, w międzyczasie zaczęły obowiązywać przepisy unijnego AI Act dotyczące obowiązku AI Literacy.

Akt ten wszedł w życie co prawda już pół roku temu, ale start obowiązywania poszczególnych postanowień został odsunięty w czasie i podzielony na etapy. Od 2 lutego 2025 r. zaczął obowiązywać zakaz wprowadzania do obrotu lub wykorzystywania tzw. systemów niedopuszczalnych (art. 5) oraz przepis obligujący do rozwijania kompetencji zatrudnionych w zakresie AI (art. 4). Ten drugi przepis, choć na pierwszy rzut oka niepozorny, a na pewno mniej „medialny” niż katalog systemów niedopuszczalnych – powinien trafić pod strzechy każdej firmy zarówno dostarczającej, jak i korzystającej z systemów AI.

Reklama
Reklama

Narzędzia generatywnej sztucznej inteligencji, takie jak DeepSeek i inne wymienione wyżej, skupiają jak w soczewce główne problemy i ryzyka prawno-biznesowe, jakie czyhają na użytkowników systemów AI. Choć DeepSeek jest świeżym rozwiązaniem, dzieli on te same, „wrodzone” wady co inne rozwiązania obecne na rynku. W przypadku DeepSeek w pewnych aspektach te problemy i ryzyka są jednak szczególnie widoczne.

Warto na tym przykładzie wyświetlić kwestie, o których należy pamiętać, edukując kadry korzystające z rozwiązań AI, a także uchwycić narzędzia i sposoby realizacji nakazu AI Literacy. AI Act wymaga rozwijania kompetencji w zakresie sztucznej inteligencji wśród osób tworzących i korzystających z takich systemów. Kompetencje te zależą od roli użytkownika. Końcowi użytkownicy powinni rozumieć wpływ decyzji podejmowanych przez AI i umieć interpretować jej wyniki (np. w przypadku preselekcji CV). Inżynierowie rozwijający AI powinni natomiast znać techniczne aspekty jej tworzenia i wdrażania. Kompetencje w dziedzinie AI to zatem wiedza o szansach i zagrożeniach płynących ze stosowania systemu AI, które mogą być różne m.in. w zależności od tego, czy dana osoba tworzy, czy korzysta ze sztucznej inteligencji. Od strony prawno-biznesowej AI Literacy powinno obejmować również budowanie świadomości ryzyk i zagrożeń na tle poufności, bezpieczeństwa cybernetycznego, danych osobowych czy prawa własności intelektualnej.

DeepSeek jako chiński „koń trojański”, czyli bezpieczeństwo narzędzi AI

Bezpieczeństwo to fundamentalny aspekt rozwijania kompetencji AI w firmach. DeepSeek już na starcie zaliczył słabe wyniki, a pojawiły się nawet oskarżenia, że to „koń trojański” chińskiego wywiadu, mający potajemnie wykradać dane użytkowników. Wzbudził on szczególne kontrowersje, ale problem bezpieczeństwa nie dotyczy tylko tego modelu. Generatywna AI otwiera nowe możliwości dla cyberprzestępców, którzy mogą wykorzystywać ją do manipulacji i wyłudzania informacji. AI coraz lepiej imituje język, głos i obraz.

Kolejnym problemem jest brak weryfikacji rezultatów generowanych przez narzędzia AI. Halucynacje modeli językowych mogą udzielać fałszywych informacji, co w zależności od kontekstu ich wykorzystania może mieć poważne konsekwencje. W przypadku zastosowań biznesowych, niezweryfikowane odpowiedzi mogą prowadzić do podejmowania błędnych decyzji operacyjnych (halucynacji), np. na podstawie nieistniejących regulacji prawnych czy fałszywych analiz rynkowych. W obszarze medycyny generatywna AI może zasugerować nieprawidłowe diagnozy lub niebezpieczne zalecenia terapeutyczne, co stanowi realne zagrożenie dla zdrowia i życia pacjentów.

Czytaj więcej

Skarga przewidziana w AI Act nie poprawia sytuacji obywateli

Elementem budowania kompetencji w zakresie AI powinno być również uświadomienie zatrudnionych w kwestii praw autorskich do treści powstających z pomocą narzędzi sztucznej inteligencji. Generatywna AI dostarcza użytkownikowi treści, ale nie bezinteresownie. Narzędzia GenAI często działają na zasadzie „licencji zwrotnej” – treści wprowadzone przez użytkownika mogą być wykorzystywane przez dostawcę narzędzia we własnych celach. W przypadku DeepSeek użytkownik zachowuje prawa do swoich danych wejściowych, ale regulamin daje dostawcy dużą swobodę w dysponowaniu nimi, w tym możliwość trenowania modelu. Choć formalnie użytkownik nie traci praw do wprowadzonych treści, nie ma pełnej kontroli nad tym, jak i do czego zostaną one później użyte. Takie postanowienia mogą mieć istotne konsekwencje zarówno pod kątem własności intelektualnej, jak i tajemnicy przedsiębiorstwa, zwłaszcza gdy do modelu trafiają wrażliwe lub strategicznie istotne informacje.

Reklama
Reklama

Szczególnym aspektem edukacji w zakresie AI powinna być kwestia danych osobowych i postępowania z nimi w interakcji z AI. Są one paliwem dla modeli AI, ale ich niewłaściwe wykorzystanie niesie poważne konsekwencje dla prywatności użytkowników. Pojawiają się ryzyka deanonimizacji, niekontrolowanego przetwarzania oraz używania wrażliwych informacji użytkowników do dalszego trenowania modeli AI.

Czytaj więcej

Nowe technologie w ryzach prawnych. Czy w 2025 r. zmierzymy się z przepisami na miarę RODO?

Używanie narzędzi AI w firmie. Edukacja przez szkolenia

Oceniając te ryzyka, budowanie AI Literacy jest zdecydowanie rozsądnym i odpowiedzialnym posunięciem. Kompetencje w zakresie AI można budować na różne sposoby. Elementarne są oczywiście szkolenia pracowników. Dostępne są również certyfikacje w zakresie AI (np. norma ISO/IEC 42001). Można spodziewać się też różnych branżowych kodeksów dobrych praktyk. Rośnie również zainteresowanie wewnątrzfirmowymi regulaminami korzystania z AI, które określają, co wolno, a czego lepiej unikać. Firmy coraz częściej powołują także AI officerów lub interdyscyplinarne zespoły ds. AI, które dbają o zgodność z regulacjami i bezpieczeństwo stosowania tych technologii. 

Kluczowe w ramach wdrażania AI Literacy jest podejście ewolucyjne. Wszak edukacja w zakresie AI jest ciągłym procesem, który musi nadążać za rozwojem technologii.

Bartosz Łabęcki jest adwokatem i senior associate w KWKR

Łukasz Wieczorek jest radcą prawnym i partnerem w KWKR

Opinie Prawne
Ewa Szadkowska: Dwa lata rządu, czyli zawiedzione nadzieje
Opinie Prawne
Robert Gwiazdowski: Czy lekcje, przekazywane nam przez autorytety, są prawdziwe?
Opinie Prawne
Michał Bieniak: Co mają wspólnego żurek, ziobro i środa?
Opinie Prawne
Sławomir Wikariak: Kto odpowiada za brzydkie napisy w WC?
Materiał Promocyjny
Jak producent okien dachowych wpisał się w polską gospodarkę
Opinie Prawne
Robert Gwiazdowski: Wczasowa łódka konna, czyli o zakazie reklamy alkoholu
Materiał Promocyjny
Lojalność, która naprawdę się opłaca. Skorzystaj z Circle K extra
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama