Ustawa o sztucznej inteligencji zapobiegnie manipulacji człowiekiem

Ustawa o sztucznej inteligencji pozwoli karać tych, którzy wykorzystują systemy zakazane: wykorzystujące ludzkie słabości czy identyfikujące orientację seksualną – mówi dr Michał Nowakowski z Polskiego Towarzystwa Informatycznego, partner odpowiedzialny za AI & CyberSeC w ZP Zackiewicz & Partners.

Publikacja: 13.09.2024 07:18

Ustawa o sztucznej inteligencji zapobiegnie manipulacji człowiekiem

Foto: Adobe Stock

Założenia ustawy o systemach sztucznej inteligencji, opublikowane w poniedziałek w wykazie prac rządu, przewidują powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. W jakich sytuacjach będzie ona mogła nakładać sankcje za naruszenie przepisów AI Actu?

Komisję wesprze biuro – zaplecze merytoryczne i operacyjne – a jego zasoby będą decydowały de facto o efektywności systemu nadzoru nad stosowaniem AI Act. Sama komisja będzie zaś mogła nakładać kary między innymi wtedy, kiedy wykorzystywane przez dostawców systemy okażą się systemami zakazanymi, np. manipulującymi człowiekiem, wykorzystującymi jego słabości spowodowane wiekiem, sytuacją ekonomiczną czy niepełnosprawnością, a jednocześnie wpływającymi na podejmowane przez niego decyzje, przynoszące mu poważną szkodę.

Czytaj więcej

Przestępcy wykorzystują AI. Wystarczy im próbka naszego głosu czy zdjęcie

Kolejne zakazane systemy służą rozpoznawaniu emocji w miejscu pracy lub placówkach edukacyjnych oraz zdalnej identyfikacji biometrycznej w przestrzeni publicznej, czyli związanej np. z cechami wyglądu fizycznego; używanie tych drugich będzie dozwolone jedynie w wyjątkowych sytuacjach, w tym w przypadku – ścigania niektórych przestępstw. Kolejne niedozwolone praktyki to te pozwalające na ustalanie danych biometrycznych, na podstawie których możliwe będzie zidentyfikowanie orientacji seksualnej, wyznania czy światopoglądu konkretnych obywateli. W rzeczywistości przykładów tych systemów jest więcej, a można określić je mianem najbardziej ryzykownych i szkodliwych dla człowieka oraz społeczeństwa.  

To na dostawcach systemów AI spocznie ciężar udowodnienia, że działają zgodnie z przepisami?

Tak, szczególnie jeżeli będą chcieli stosować systemy wysokiego ryzyka. W niektórych przypadkach wystarczy przeprowadzona przez nich kontrola wewnętrzna, w innych konieczne będzie zaangażowanie odpowiedniej jednostki oceniającej, a w jeszcze innych – skorzystanie ze specjalnej procedury w zakresie oceny systemu zarządzania jakością. W praktyce aspekty związane z procedurą oceny zgodności są bardziej skomplikowane i wielowątkowe, z pewnością zrozumienie ich będzie wyzwaniem dla przedsiębiorców. W ustawie planuje się powołanie organu notyfikującego i jednostki akredytującej, która będzie miała konkretne obowiązki w zakresie nadawania uprawnień do dokonywania takiej oceny. Ważne, żeby ustawa w tym zakresie była klarowna i zrozumiała dla odbiorców.

Wstępne ramy ustawy są pana zdaniem zgodne z fundamentalnymi założeniami AI Actu?

Tak, zdecydowanie widać, że mechanizmy ochrony będą skupione na człowieku. Świadczy o tym choćby fakt, że od nałożonej przez komisję kary – w formie decyzji – będzie można odwołać się do Sądu Ochrony Konkurencji i Konsumentów. A odbiorcy systemów – rozumiani jako osoby poddane działaniu – będą mieli zapewnioną odpowiednią ochronę. Przepisy ustalą też zasady współpracy komisji m.in. z prezesem Urzędu Danych Osobowych i innymi organami o kompetencjach technologicznych. Zarówno ona, jak i powołane przy niej biuro odpowiedzialne będą też za działania edukacyjne i informowanie obywateli o przysługujących im prawach. Jeśli w zetknięciu z systemem AI odczują oni, że ten wpływa na ich sytuację ekonomiczną, prawną lub faktyczną, będą mogli domagać się informacji o jego funkcjonowaniu od dostawcy.

Założenia ustawy o systemach sztucznej inteligencji, opublikowane w poniedziałek w wykazie prac rządu, przewidują powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. W jakich sytuacjach będzie ona mogła nakładać sankcje za naruszenie przepisów AI Actu?

Komisję wesprze biuro – zaplecze merytoryczne i operacyjne – a jego zasoby będą decydowały de facto o efektywności systemu nadzoru nad stosowaniem AI Act. Sama komisja będzie zaś mogła nakładać kary między innymi wtedy, kiedy wykorzystywane przez dostawców systemy okażą się systemami zakazanymi, np. manipulującymi człowiekiem, wykorzystującymi jego słabości spowodowane wiekiem, sytuacją ekonomiczną czy niepełnosprawnością, a jednocześnie wpływającymi na podejmowane przez niego decyzje, przynoszące mu poważną szkodę.

Pozostało 80% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Czym jeździć
Technologia, której nie zobaczysz. Ale możesz ją poczuć
Materiał Promocyjny
BaseLinker uratuje e-sklep przed przestojem
Tu i Teraz
Skoda Kodiaq - nowy wymiar przestrzeni
Nieruchomości
Ministerstwo Rozwoju przekazało ważną wiadomość ws. ogródków działkowych
Sądy i trybunały
Reset TK musi poczekać. Rząd może jednak wpłynąć na pracę Przyłębskiej
Nieruchomości
Sąsiad buduje ogrodzenie i chce zwrotu połowy kosztów? Przepisy są jasne