Narzędzia wspierane przez sztuczną inteligencję wykorzystuje w swojej działalności 6,5 proc. szpitali w Polsce – wynika z badania Centrum E-Zdrowia za 2023 rok. Kwestie związane z AI reguluje unijne rozporządzenie, którego będą przestrzegać również podmioty medyczne.
Warianty stosowania AI
– Systemy sztucznej inteligencji wysokiego ryzyka ujęte w Akcie AI można podzielić na dwie kategorie. Pierwsza dotyczy systemów, które są uregulowane w odrębnym prawodawstwie harmonizacyjnym UE. Do takiego należy m.in. rozporządzenie o wyrobach medycznych, zgodnie z którym za wyrób taki można uznać też oprogramowanie. Druga kategoria obejmuje systemy, które są stosowane w przypadkach użycia opisanych w załączniku nr III do AI Act – tłumaczy dr Gabriela Bar, radczyni prawna z kancelarii Gabriela Bar Law & AI.
Czytaj więcej
Ustawa o sztucznej inteligencji pozwoli karać tych, którzy wykorzystują systemy zakazane: wykorzystujące ludzkie słabości czy identyfikujące orient...
– Zgodnie z AI Act, jeżeli konkretny system sztucznej inteligencji podpada pod definicję wyrobu medycznego, to zawsze będzie on systemem wysokiego ryzyka – dodaje prawniczka. Jeśli więc wykorzystywany w placówce system AI można zakwalifikować jako wyrób medyczny, to dostawca takiej technologii automatycznie musi spełnić obowiązki przewidziane dla dostawców systemów wysokiego ryzyka.
– Szereg obowiązków będzie spoczywał także na podmiocie medycznym, czyli użytkowniku systemu. Należą do nich m.in. korzystanie z systemu AI zgodnie z instrukcją dostawcy, zapewnienie nadzoru ze strony człowieka i powierzenie go osobom, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, przechowywanie generowanych automatycznie rejestrów zdarzeń oraz informowanie zarówno pacjentów, jak i pracowników o wykorzystywaniu systemu AI wysokiego ryzyka – wylicza Bar.
Jeżeli wykorzystywany system AI nie jest wyrobem medycznym, to szpital nadal musi sprawdzić, czy dana technologia mieści się w zamkniętym katalogu systemów wymienionych w załączniku nr III do aktu (systemy AI do oceny stanu zdrowia w nagłych wypadkach).
Inna możliwość wiąże się z działalnością botów, które będą np. obsługiwały pacjentów. Wówczas – jak wskazuje mec. Bar – AI Akt znajduje zastosowanie w ograniczonym zakresie. Boty traktowane są bowiem jako systemy ograniczonego ryzyka, a obowiązki podmiotu, który je wykorzystuje, mają charakter informacyjny (aby pacjent wiedział, że wchodzi w interakcję z botem).
– Do oceny wszystkich tych aspektów w praktyce konieczne może okazać się powołanie zespołu ds. zgodności z udziałem prawnika, lekarza, eksperta ds. technologii i menadżera – ocenia prawniczka.
Przepisy dotyczące systemów wysokiego ryzyka w większości wchodzą w życie 2 sierpnia 2027 r., szpitale mają więc czas na przygotowanie.
Czytaj więcej
Rząd szykuje ustawę o systemach sztucznej inteligencji. Jednak w pierwotnym projekcie nie zostaną uregulowane tzw. sandboxy, pozwalające rozwijać t...
KE musi pomóc
Pamela Krzypkowska, dyrektorka Departamentu Badań i Innowacji w Ministerstwie Cyfryzacji, przyznaje, że producenci oprogramowania i jednostki świadczące usługi medyczne będą przestrzegać przepisów aktu, czyli zapewnić m.in. nadzór człowieka, prawo do wytłumaczenia konkretnych decyzji czy rejestrowanie informacji o działaniu programów i urządzeń wykorzystujących AI.
Wskazuje przy tym, że kwestia produktów medycznych, które są lub mają w sobie komponent AI wysokiego ryzyka, to jeden z obszarów, w którym konieczna jest spójność z działaniami Komisji Europejskiej. Musi ona m.in. przedstawić wytyczne dotyczące przykładów klasyfikacji systemów.
– MC realizuje wdrożenie AI Act etapowo. Teraz potrzebujmy powołania organu – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. To ona będzie docelowo wspierała m.in. szpitale i lekarzy w tym, aby przestrzegać przepisów dot. urządzeń medycznych z AI wysokiego ryzyka – komentuje Krzypkowska.
Zdaniem prof. Katarzyny Kolasy, dyrektor Centrum Zdrowia Cyfrowego Akademii Leona Koźmińskiego, kluczowa jest budowa systemu opartego na dwóch fundamentach. Pierwszy z nich to ocena wartości technologii opartych na AI.
– Każdorazowe korzystanie z algorytmu w zasadzie jest za darmo, ale to nie znaczy, że nie mamy płacić za rozwój innowacji i dostęp do nowoczesnych rozwiązań. Chodzi o budowanie modelu dostępu do technologii z uwzględnieniem jej wartości dla systemu ochrony zdrowia i pacjenta – mówi ekspertka.