Zespoły ds. AI obowiązkowe w szpitalach?

Podmioty medyczne będą zobowiązane do przestrzegania AI Act. Konieczne może być powołanie zespołów ds. zgodności.

Aktualizacja: 04.12.2024 06:22 Publikacja: 29.11.2024 04:43

Operacja przy pomocy robota da Vinci w Uniwersyteckim Szpitalu Klinicznym we Wrocławiu

Operacja przy pomocy robota da Vinci w Uniwersyteckim Szpitalu Klinicznym we Wrocławiu

Foto: PAP/Maciej Kulczyński

Narzędzia wspierane przez sztuczną inteligencję wykorzystuje w swojej działalności 6,5 proc. szpitali w Polsce – wynika z badania Centrum E-Zdrowia za 2023 rok. Kwestie związane z AI reguluje unijne rozporządzenie, którego będą przestrzegać również podmioty medyczne.

Warianty stosowania AI

– Systemy sztucznej inteligencji wysokiego ryzyka ujęte w Akcie AI można podzielić na dwie kategorie. Pierwsza dotyczy systemów, które są uregulowane w odrębnym prawodawstwie harmonizacyjnym UE. Do takiego należy m.in. rozporządzenie o wyrobach medycznych, zgodnie z którym za wyrób taki można uznać też oprogramowanie. Druga kategoria obejmuje systemy, które są stosowane w przypadkach użycia opisanych w załączniku nr III do AI Act – tłumaczy dr Gabriela Bar, radczyni prawna z kancelarii Gabriela Bar Law & AI.

Czytaj więcej

Ustawa o sztucznej inteligencji zapobiegnie manipulacji człowiekiem

– Zgodnie z AI Act, jeżeli konkretny system sztucznej inteligencji podpada pod definicję wyrobu medycznego, to zawsze będzie on systemem wysokiego ryzyka – dodaje prawniczka. Jeśli więc wykorzystywany w placówce system AI można zakwalifikować jako wyrób medyczny, to dostawca takiej technologii automatycznie musi spełnić obowiązki przewidziane dla dostawców systemów wysokiego ryzyka.

– Szereg obowiązków będzie spoczywał także na podmiocie medycznym, czyli użytkowniku systemu. Należą do nich m.in. korzystanie z systemu AI zgodnie z instrukcją dostawcy, zapewnienie nadzoru ze strony człowieka i powierzenie go osobom, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, przechowywanie generowanych automatycznie rejestrów zdarzeń oraz informowanie zarówno pacjentów, jak i pracowników o wykorzystywaniu systemu AI wysokiego ryzyka – wylicza Bar.

Jeżeli wykorzystywany system AI nie jest wyrobem medycznym, to szpital nadal musi sprawdzić, czy dana technologia mieści się w zamkniętym katalogu systemów wymienionych w załączniku nr III do aktu (systemy AI do oceny stanu zdrowia w nagłych wypadkach).

Inna możliwość wiąże się z działalnością botów, które będą np. obsługiwały pacjentów. Wówczas – jak wskazuje mec. Bar – AI Akt znajduje zastosowanie w ograniczonym zakresie. Boty traktowane są bowiem jako systemy ograniczonego ryzyka, a obowiązki podmiotu, który je wykorzystuje, mają charakter informacyjny (aby pacjent wiedział, że wchodzi w interakcję z botem).

– Do oceny wszystkich tych aspektów w praktyce konieczne może okazać się powołanie zespołu ds. zgodności z udziałem prawnika, lekarza, eksperta ds. technologii i menadżera – ocenia prawniczka.

Przepisy dotyczące systemów wysokiego ryzyka w większości wchodzą w życie 2 sierpnia 2027 r., szpitale mają więc czas na przygotowanie.

Czytaj więcej

Rząd szykuje ustawę o sztucznej inteligencji. Brak w niej bezpiecznego rozwijania AI

KE musi pomóc

Pamela Krzypkowska, dyrektorka Departamentu Badań i Innowacji w Ministerstwie Cyfryzacji, przyznaje, że producenci oprogramowania i jednostki świadczące usługi medyczne będą przestrzegać przepisów aktu, czyli zapewnić m.in. nadzór człowieka, prawo do wytłumaczenia konkretnych decyzji czy rejestrowanie informacji o działaniu programów i urządzeń wykorzystujących AI.

Wskazuje przy tym, że kwestia produktów medycznych, które są lub mają w sobie komponent AI wysokiego ryzyka, to jeden z obszarów, w którym konieczna jest spójność z działaniami Komisji Europejskiej. Musi ona m.in. przedstawić wytyczne dotyczące przykładów klasyfikacji systemów.

– MC realizuje wdrożenie AI Act etapowo. Teraz potrzebujmy powołania organu – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. To ona będzie docelowo wspierała m.in. szpitale i lekarzy w tym, aby przestrzegać przepisów dot. urządzeń medycznych z AI wysokiego ryzyka – komentuje Krzypkowska.

Zdaniem prof. Katarzyny Kolasy, dyrektor Centrum Zdrowia Cyfrowego Akademii Leona Koźmińskiego, kluczowa jest budowa systemu opartego na dwóch fundamentach. Pierwszy z nich to ocena wartości technologii opartych na AI.

– Każdorazowe korzystanie z algorytmu w zasadzie jest za darmo, ale to nie znaczy, że nie mamy płacić za rozwój innowacji i dostęp do nowoczesnych rozwiązań. Chodzi o budowanie modelu dostępu do technologii z uwzględnieniem jej wartości dla systemu ochrony zdrowia i pacjenta – mówi ekspertka.

Narzędzia wspierane przez sztuczną inteligencję wykorzystuje w swojej działalności 6,5 proc. szpitali w Polsce – wynika z badania Centrum E-Zdrowia za 2023 rok. Kwestie związane z AI reguluje unijne rozporządzenie, którego będą przestrzegać również podmioty medyczne.

Warianty stosowania AI

Pozostało 94% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Sądy i trybunały
Ostatnia sprawa Przyłębskiej. Będzie sądzić ws. wniosku prezydenta
Praca, Emerytury i renty
Coraz dłuższe L4, w tym z powodów psychicznych. Znamy najnowsze dane
Prawo na świecie
Jest wyrok sądu ws. Romana Polańskiego i brytyjskiej aktorki
Praca, Emerytury i renty
Trzy zmiany w harmonogramie wypłat 800 plus w grudniu. Nowe terminy
Materiał Promocyjny
Przewaga technologii sprawdza się na drodze
W sądzie i w urzędzie
Resort Bodnara ma pomysł na sądowe spory frankowiczów. Oto, co się zmieni
Materiał Promocyjny
Transformacja w miastach wymaga współpracy samorządu z biznesem i nauką