Założenia ustawy o systemach sztucznej inteligencji, opublikowane w poniedziałek w wykazie prac rządu, przewidują powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. W jakich sytuacjach będzie ona mogła nakładać sankcje za naruszenie przepisów AI Actu?
Komisję wesprze biuro – zaplecze merytoryczne i operacyjne – a jego zasoby będą decydowały de facto o efektywności systemu nadzoru nad stosowaniem AI Act. Sama komisja będzie zaś mogła nakładać kary między innymi wtedy, kiedy wykorzystywane przez dostawców systemy okażą się systemami zakazanymi, np. manipulującymi człowiekiem, wykorzystującymi jego słabości spowodowane wiekiem, sytuacją ekonomiczną czy niepełnosprawnością, a jednocześnie wpływającymi na podejmowane przez niego decyzje, przynoszące mu poważną szkodę.
Czytaj więcej
Prokuratura przyznaje, że przestępcy coraz częściej sięgają po narzędzia sztucznej inteligencji, a liczba podobnych przypadków będzie wzrastać. Eks...
Kolejne zakazane systemy służą rozpoznawaniu emocji w miejscu pracy lub placówkach edukacyjnych oraz zdalnej identyfikacji biometrycznej w przestrzeni publicznej, czyli związanej np. z cechami wyglądu fizycznego; używanie tych drugich będzie dozwolone jedynie w wyjątkowych sytuacjach, w tym w przypadku – ścigania niektórych przestępstw. Kolejne niedozwolone praktyki to te pozwalające na ustalanie danych biometrycznych, na podstawie których możliwe będzie zidentyfikowanie orientacji seksualnej, wyznania czy światopoglądu konkretnych obywateli. W rzeczywistości przykładów tych systemów jest więcej, a można określić je mianem najbardziej ryzykownych i szkodliwych dla człowieka oraz społeczeństwa.
To na dostawcach systemów AI spocznie ciężar udowodnienia, że działają zgodnie z przepisami?
Tak, szczególnie jeżeli będą chcieli stosować systemy wysokiego ryzyka. W niektórych przypadkach wystarczy przeprowadzona przez nich kontrola wewnętrzna, w innych konieczne będzie zaangażowanie odpowiedniej jednostki oceniającej, a w jeszcze innych – skorzystanie ze specjalnej procedury w zakresie oceny systemu zarządzania jakością. W praktyce aspekty związane z procedurą oceny zgodności są bardziej skomplikowane i wielowątkowe, z pewnością zrozumienie ich będzie wyzwaniem dla przedsiębiorców. W ustawie planuje się powołanie organu notyfikującego i jednostki akredytującej, która będzie miała konkretne obowiązki w zakresie nadawania uprawnień do dokonywania takiej oceny. Ważne, żeby ustawa w tym zakresie była klarowna i zrozumiała dla odbiorców.
Czytaj więcej:
Polskie firmy bardziej niż inne w regionie boją się o bezpieczeństwo danych i skutki prawne rozwoju generatywnej sztucznej inteligencji. Ale i widz...
Pro
Wstępne ramy ustawy są pana zdaniem zgodne z fundamentalnymi założeniami AI Actu?
Tak, zdecydowanie widać, że mechanizmy ochrony będą skupione na człowieku. Świadczy o tym choćby fakt, że od nałożonej przez komisję kary – w formie decyzji – będzie można odwołać się do Sądu Ochrony Konkurencji i Konsumentów. A odbiorcy systemów – rozumiani jako osoby poddane działaniu – będą mieli zapewnioną odpowiednią ochronę. Przepisy ustalą też zasady współpracy komisji m.in. z prezesem Urzędu Danych Osobowych i innymi organami o kompetencjach technologicznych. Zarówno ona, jak i powołane przy niej biuro odpowiedzialne będą też za działania edukacyjne i informowanie obywateli o przysługujących im prawach. Jeśli w zetknięciu z systemem AI odczują oni, że ten wpływa na ich sytuację ekonomiczną, prawną lub faktyczną, będą mogli domagać się informacji o jego funkcjonowaniu od dostawcy.