Narzędzia wspierane przez sztuczną inteligencję wykorzystuje w swojej działalności 6,5 proc. szpitali w Polsce – wynika z badania Centrum E-Zdrowia za 2023 rok. Kwestie związane z AI reguluje unijne rozporządzenie, którego będą przestrzegać również podmioty medyczne.
Warianty stosowania AI
– Systemy sztucznej inteligencji wysokiego ryzyka ujęte w Akcie AI można podzielić na dwie kategorie. Pierwsza dotyczy systemów, które są uregulowane w odrębnym prawodawstwie harmonizacyjnym UE. Do takiego należy m.in. rozporządzenie o wyrobach medycznych, zgodnie z którym za wyrób taki można uznać też oprogramowanie. Druga kategoria obejmuje systemy, które są stosowane w przypadkach użycia opisanych w załączniku nr III do AI Act – tłumaczy dr Gabriela Bar, radczyni prawna z kancelarii Gabriela Bar Law & AI.
Czytaj więcej
Ustawa o sztucznej inteligencji pozwoli karać tych, którzy wykorzystują systemy zakazane: wykorzystujące ludzkie słabości czy identyfikujące orientację seksualną – mówi dr Michał Nowakowski z Polskiego Towarzystwa Informatycznego, partner odpowiedzialny za AI & CyberSeC w ZP Zackiewicz & Partners.
– Zgodnie z AI Act, jeżeli konkretny system sztucznej inteligencji podpada pod definicję wyrobu medycznego, to zawsze będzie on systemem wysokiego ryzyka – dodaje prawniczka. Jeśli więc wykorzystywany w placówce system AI można zakwalifikować jako wyrób medyczny, to dostawca takiej technologii automatycznie musi spełnić obowiązki przewidziane dla dostawców systemów wysokiego ryzyka.
– Szereg obowiązków będzie spoczywał także na podmiocie medycznym, czyli użytkowniku systemu. Należą do nich m.in. korzystanie z systemu AI zgodnie z instrukcją dostawcy, zapewnienie nadzoru ze strony człowieka i powierzenie go osobom, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, przechowywanie generowanych automatycznie rejestrów zdarzeń oraz informowanie zarówno pacjentów, jak i pracowników o wykorzystywaniu systemu AI wysokiego ryzyka – wylicza Bar.