Kamil Rzeczkowski: AI w służbie pacjenta - czy sztuczna inteligencja zrewolucjonizuje polski system ochrony zdrowia?

Popularność medialna pojęcia sztucznej inteligencji przekroczyła już granice określenia “hype” - produkty oparte na AI, mniej lub bardziej użyteczne i funkcjonalne - towarzyszą nam w życiu codziennym. Zaczynając od generowania losowych obrazów i pisania kodu bez elementarnej wiedzy programistycznej, poprzez diagnostykę obrazów medycznych, po przewidywanie awarii czy zachowań sprzedażowych.

Publikacja: 15.05.2024 14:00

Polski system ochrony zdrowia wspomagany jest obecnie przez mnóstwo narzędzi cyfrowych, które potenc

Polski system ochrony zdrowia wspomagany jest obecnie przez mnóstwo narzędzi cyfrowych, które potencjalnie mogą stanowić źródło “uczenia” dla algorytmów sztucznej inteligencji

Foto: Adobe Stock

W szumie informacyjnym jaki pojawił się wokół AI, szczególnie obecnym w mediach masowych, rzadko dostrzega się złożoność i wpływ narzędzi sztucznej inteligencji na kluczowe aspekty naszego życia i ich relacji do nadchodzących wielkimi krokami nowych regulacji prawnych - w tym w szczególności tzw. AI Act. Pomija się chociażby możliwości wykorzystania AI do wspomagania działania systemu polskiej ochrony zdrowia, jak również udzielania świadczeń zdrowotnych.

Wbrew powszechnie panującej opinii, polski system ochrony zdrowia wspomagany jest obecnie przez mnóstwo narzędzi cyfrowych, które potencjalnie mogą stanowić źródło “uczenia” dla algorytmów sztucznej inteligencji. Zadaniem wspomnianych algorytmów jest w założeniu wsparcie funkcjonowania szpitali, podnoszenie jakości opieki pacjenta itp.

17,1 mln osób

korzysta w Polsce

z Internetowego Konta Pacjenta (IKP)

Według danych Ministerstwa Zdrowia, z Internetowego Konta Pacjenta (IKP) korzysta już ponad 17,1 mln osób. Ponad 37 mln osób otrzymało 1,61 mld e-recept, a od 8 stycznia 2021 r. wystawiono ponad 136 mln i zrealizowano prawie 42 mln e-skierowań. W ramach IKP gromadzone są dane dotyczącę wystawionych recept i skierowań, dotychczasowa historia choroby pacjenta, informacje o zwolnieniach i zaświadczeniach lekarskich, czy wreszcie elektroniczna dokumentacja medyczna (EDM) oraz dokumentacja zdarzeń medycznych (ZM). Tam z kolei użytkownik widzi wyniki badań diagnostycznych, laboratoryjnych, wraz z ich szczegółowym opisem.

Już na pierwszy rzut oka widać, że organy państwowe dysponują ogromną ilością danych, które potencjalnie można wykorzystać jako dane treningowe algorytmu. Tam, gdzie pojawiają się dane, w tym przypadku - wrażliwe dane osobowe, musimy oczywiście liczyć się z koniecznością spełnienia szeregu wymagań prawnych - między innymi RODO.

Możliwość korzystania z danych osobowych zawsze musi wiązać się z wykazaniem podstawy ich przetwarzania. Zgodnie z art. 9 RODO, dane dotyczące zdrowia stanowią specjalną kategorię tzw. danych wrażliwych. W tym przypadku podstawą legalnego korzystania z danych jest (co do zasady) wyrażenie zgody przez ich dysponenta, w naszym przypadku - użytkownika IKP. W kontekście zatem budowania systemów AI opartych na zgromadzonych danych pacjentów należy zbadać czy zakres udzielonych pierwotnie zgód obejmuje sytuację trenowania AI. W przeciwnym razie użycie danych będzie wymagało zebrania odrębnych zgód od każdego z użytkowników.

Oprócz oczywistych korzyści dopuszczenia AI do wspomagania systemu ochrony zdrowia, nie należy zapominać o zagrożeniach płynących z takich działań. Rozważane przez nas systemy będą docelowo decydować o aspektach zdrowia, a niekiedy życia ludzkiego. W tym miejscu pojawia się zatem pytanie w jaki sposób kontrolować AI tak, żeby działała zgodnie ze swoim przeznaczeniem? Żeby dokonywać kontroli jakiegoś zagadnienia, niezbędne jest zrozumienie zasad jego działania oraz “toku rozumowania” narzędzia. W kontekście systemów AI mówimy tutaj o pojęciu “przejrzystości” i “wyjaśnialności”.

Na gruncie RODO zasada przejrzystości jest bezpośrednio wskazana w art. 5. Z perspektywy systemów AI bardziej interesującym jest art. 22, który reguluje kwestię zautomatyzowanego przetwarzania danych (w skrócie - przetwarzania bez udziału człowieka). Zgodnie z tym przepisem osoba, której dane podlegają ww. przetwarzaniu ma prawa do uzyskania interwencji ludzkiej ze strony administratora, do wyrażenia własnego stanowiska i (co najważniejsze) do zakwestionowania tej decyzji. Aby natomiast zakwestionować podjętą przez AI decyzję konieczne jest zrozumienie procesu, który stał za daną procedurą. Tym samym, z perspektywy ochrony danych osobowych, przejrzystość funkcjonowania algorytmu jest wymogiem nadrzędnym.

AI Act, który będzie główną regulacją dotyczącą sztucznej inteligencji, wspomina o wyjaśnialności tylko raz. Większy nacisk kładzie na przejrzystość, zwłaszcza w kontekście systemów wysokiego ryzyka, do których co do zasady zaliczane będą narzędzia dla branży healthcare. System wysokiego ryzyka to taki, który będzie używany przez organy publiczne do oceny kwalifikowalności do usług publicznych - w tym opieki zdrowotnej - i który może stanowić znaczne ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych. Przykładem może być system personalizujący leczenie na podstawie analizy historii chorobowej pacjenta. Takie narzędzie analizowało by dane pacjenta i na tej podstawie dokonywało wstępnego rozpoznania jednostki chorobowej oraz kierowało do właściwego specjalisty.

Przejrzystość systemów wysokiego ryzyka wynika z wymogów stawianych instrukcjom obsługi tych systemów. AI Act wymaga, żeby instrukcja obsługi zawierała informacje techniczne potrzebne do wyjaśnienia wyników działania systemu AI. Przejrzystość oznacza, że systemy AI powinny być opracowywane i używane w sposób umożliwiający ich identyfikowalność i wytłumaczalność.

Te instrukcje mogą być interpretowane różnie. Kto będzie decydował, kiedy potrzebne są informacje wyjaśniające wyniki algorytmu? Co w sytuacji, gdy narzędzie jest zbyt zaawansowane, żeby w pełni wyjaśnić działanie AI? Pojęcie przejrzystości w AI Act jest niejasne i podatne na manipulacje, ale przejrzystość według RODO jest bardziej ustalona i rygorystyczna. Ewentualne naruszenia dotyczące danych osobowych będą godzić w prawa podstawowe, które AI Act w założeniu ma chronić.

Wdrażanie AI w ochronie zdrowia na szeroką skalę jest kwestią czasu, ale wiąże się z wieloma wyzwaniami prawnymi. AI może zwiększyć dostępność do świadczeń zdrowotnych, jednak ważne jest, żeby w pogoni za technologią - nie zapomnieć o prawach pacjentów.

O autorze

Kamil Rzeczkowski

Adwokat, ekspert PwC Polska, zespół Pharma & Life Sciences  

W szumie informacyjnym jaki pojawił się wokół AI, szczególnie obecnym w mediach masowych, rzadko dostrzega się złożoność i wpływ narzędzi sztucznej inteligencji na kluczowe aspekty naszego życia i ich relacji do nadchodzących wielkimi krokami nowych regulacji prawnych - w tym w szczególności tzw. AI Act. Pomija się chociażby możliwości wykorzystania AI do wspomagania działania systemu polskiej ochrony zdrowia, jak również udzielania świadczeń zdrowotnych.

Pozostało 92% artykułu
Opinie Ekonomiczne
Witold M. Orłowski: Gospodarka wciąż w strefie cienia
Materiał Promocyjny
Firmy same narażają się na cyberataki
Opinie Ekonomiczne
Piotr Skwirowski: Nie czarne, ale już ciemne chmury nad kredytobiorcami
Ekonomia
Marek Ratajczak: Czy trzeba umoralnić człowieka ekonomicznego
Opinie Ekonomiczne
Krzysztof Adam Kowalczyk: Klęska władz monetarnych
Materiał Promocyjny
Sieć T-Mobile Polska nagrodzona przez użytkowników w prestiżowym rankingu
Opinie Ekonomiczne
Andrzej Sławiński: Przepis na stagnację