Karolina Kowalska: Odpowiedzialność za błędy medyczne w dobie AI

Sztuczna inteligencja (AI) zrewolucjonizowała wiele dziedzin – od codziennych obowiązków po zaawansowane technologie. To z jednej strony błogosławieństwo, a z drugiej wyzwanie. W medycynie AI odgrywa szczególną rolę, przyspieszając diagnostykę, poprawiając jakość usług i otwierając drzwi do nowych metod leczenia. Roboty chirurgiczne, oprogramowanie analizujące obrazy medyczne czy systemy wspomagające wykrywanie raka to tylko niektóre przykłady. Jednak AI nie jest nieomylna. Błędy w diagnozach, niewłaściwe decyzje terapeutyczne czy awarie urządzeń sterowanych przez AI mogą powodować poważne szkody medyczne. Kto wtedy odpowiada?

Publikacja: 31.05.2025 09:02

Karolina Kowalska: Odpowiedzialność za błędy medyczne w dobie AI

Foto: Adobe Stock

Aby precyzyjnie określić odpowiedzialność za błędy medyczne z AI, najpierw przeanalizujmy, jak wygląda odpowiedzialność za błędy medyczne w tradycyjnym ujęciu, bez nowoczesnych technologii. Błąd medyczny, zwany także błędem w sztuce lekarskiej, to działanie lub zaniechanie lekarza, pielęgniarki, ratownika medycznego czy innego pracownika ochrony zdrowia, sprzeczne z aktualną wiedzą medyczną, które prowadzi do szkody pacjenta. Odpowiedzialność za błędy medyczne może spoczywać na lekarzu, szpitalu czy ubezpieczycielu – wszystko zależy od okoliczności.

Odpowiedzialność za AI

Przejdźmy teraz do odpowiedzialności za AI ogólnie, jako kroku do analizy błędów medycznych z AI. Punktem wyjścia jest pytanie: czym jest AI z perspektywy prawnej i czy może ona w ogóle ponosić odpowiedzialność? Sztuczna inteligencja nie posiada podmiotowości prawnej – to oprogramowanie, a więc rzecz, a nie osoba, tym samym nie może odpowiadać.

W łańcuchu dostaw produktów z AI znajdują się programiści, producenci urządzeń, dostawcy komponentów, dystrybutorzy, a na końcu użytkownicy. Dla uproszczenia można podzielić te podmioty na dwie grupy: twórców (np. producentów) i użytkowników. Jednak odpowiedzialność użytkownika, dotyczy sposobu użycia systemu, a nie samego AI jako produktu.

Aby ustalić odpowiedzialność za szkody spowodowane wykorzystaniem AI, należy najpierw zbadać, czy jej rola w danym zdarzeniu była istotna z punktu widzenia prawa. W wielu przypadkach AI pełni funkcję doradczą, a odpowiedzialność spoczywa na użytkowniku. Przykładem może być prawnik, który używa aplikacji AI do analizy. Prawie zawsze, gdy mamy do czynienia ze świadczeniem usług przy wykorzystaniu AI, odpowiedzialność spoczywa na usługodawcy, nie dostawcy produktu. Podobnie jest w medycynie. Lekarz, który stawia diagnozę, posiłkując się rekomendacją AI, działa na własną odpowiedzialność.

Zatem, oceniając odpowiedzialność za szkodę wyrządzoną przy świadczeniu usług z wykorzystaniem AI, najpierw należy zadać sobie pytanie: co było przyczyną powstania szkody? Jeśli było to zachowanie usługodawcy, to on poniesie odpowiedzialność na zasadach ogólnych. Zatem, pomimo wykorzystania AI, nie ma potrzeby sięgania do specjalnych regulacji ani tworzenia nowych.

Dopiero gdy ustalimy, że żaden z podmiotów uczestniczących w świadczeniu danej usługi nie ponosi winy, możemy kontynuować analizę, badając potencjalną winę kolejnych podmiotów – np. sprzedawców produktów z AI. Przykładem może być autonomiczny samochód sterowany przez AI, gdzie szkoda wynika z wady systemu. W przypadku przyjęcia odpowiedzialności twórców - w polskim prawie opiera się ona na przesłankach odpowiedzialności za produkt niebezpieczny. Ten uznaje się za niebezpieczny, jeśli w normalnym użytkowaniu stwarza zagrożenie, którego użytkownik nie mógłby przewidzieć, uwzględniając informacje podane przez producenta, sposób prezentacji produktu i okoliczności wprowadzenia go do obrotu. Odpowiedzialność co do zasady ponosi producent, który w tym przypadku jest rozumiany szeroko (w tym np. twórca surowców, importer, czy dostawca). Odpowiedzialność ta opiera się na zasadzie ryzyka.

Ustawodawca UE dostrzegł wyzwania związane z omawianym tematem i wprowadził nową Dyrektywę 2024/1799 w sprawie odpowiedzialności za produkty wadliwe (podlega ona implementacji przez państwa członkowskie do 9 grudnia 2026 r.). Dyrektywa wprowadza istotne zmiany, dostosowując zasady odpowiedzialności za produkty wadliwe do realiów cyfrowych, w tym specyfiki AI. Warto też wspomnieć o AI Act, który nie reguluje bezpośrednio odpowiedzialności cywilnej za szkody z AI, jednak ustanawia ramy bezpieczeństwa, które pośrednio wspierają dochodzenie roszczeń. Nakłada obowiązki na dostawców systemów AI wysokiego ryzyka, takich jak te stosowane w medycynie obejmujące m.in. zapewnienie bezpieczeństwa.

Czytaj więcej

Audycje prowadzone przez sztuczną inteligencję. Kto odpowiada za słowa AI?

Jak wygląda odpowiedzialność za błędy medyczne z udziałem AI

Po omówieniu zasad odpowiedzialności za błędy medyczne oraz odpowiedzialności za AI nadszedł czas, by połączyć te wątki i zbadać, jak wygląda odpowiedzialność za błędy medyczne z udziałem AI. Najpierw należy wykluczyć odpowiedzialność lekarza – musi on wykazać, że dołożył należytej staranności. Jeśli okaże się, że tego nie zrobił, to on ponosi odpowiedzialność. Gdy jednak lekarz działał prawidłowo, czy winę ponosi urządzenie? W takim przypadku bada się, czy szpital odpowiednio zadbał o urządzenie i dołożył staranności w jego obsłudze. Jeśli szpital spełnił te wymogi, dopiero wtedy rozważa się odpowiedzialność producenta, czyli dostawcy AI.

Mimo wszystko AI w medycynie nie zmienia aż tak wiele, bo już wcześniej mieliśmy do czynienia ze szkodami wynikającymi z działania maszyn. Takie przypadki są rzadkie, ale podobnie będzie z AI. Odpowiedzialność za AI to nic innego jak odpowiedzialność za aparaturę medyczną, z uwzględnieniem specyfiki AI. Aparatura medyczna to w świetle prawa wyroby medyczne. Zatem, poszukując odpowiedzialności za działania sprzętu medycznego z AI, doszłam do przekonania, że jest to odpowiedzialność za wyroby medyczne.

Wyroby medyczne to urządzenia, narzędzia, oprogramowanie, implanty czy materiały używane w medycynie do diagnostyki, leczenia, zapobiegania chorobom, wspierania osób z urazami lub badania procesów fizjologicznych, bez działania farmakologicznego. W praktyce są to np. skanery MRI, ciśnieniomierze, opatrunki, a także systemy oparte na sztucznej inteligencji, jak np. aplikacje do analizy zdjęć RTG. AI może być samodzielnym wyrobem medycznym lub częścią większego systemu, jak np. w aparacie USG.

Wprowadzanie wyrobów medycznych na rynek w Polsce reguluje ustawa o wyrobach medycznych oraz unijne rozporządzenia UE ((2017/745 (MDR) i 2017/746 (IVDR)). Każdy wyrób musi przejść ocenę zgodności, która sprawdza, czy spełnia wymogi bezpieczeństwa. Zgodnie z ww. ustawą odpowiedzialność za wyroby medyczne rozkłada się na różne podmioty w zależności od ich roli w łańcuchu dostaw i źródła zaniedbań. Ponoszenie odpowiedzialności w świetle powyższych regulacji dotyczących wyrobów medycznych nie wyłącza odpowiedzialności za produkt niebezpieczny. To właśnie ona jest przyjmowana jako podstawa odpowiedzialności za szkody wyrządzone przez wyroby medyczne.

AI w medycynie jest wykorzystywane właśnie w formie wyrobów medycznych, więc mamy gotowe ramy prawne w opisanych wyżej aktach. To, że AI stanowi element lub całość wyrobów medycznych, potwierdza unijne prawodawstwo, w szczególności wspomniany AI Act, który odnosi się do incydentów z wyrobami medycznymi zawierającymi oprogramowanie AI lub będącymi nim. Regulacje te wspierają moje podejście – przepisy, nad którymi należy pracować, dotyczą właśnie wyrobów medycznych.

Czytaj więcej

Sztuczna inteligencja. Przyszłość, która staje się teraźniejszością

Procedury dopuszczenia wyrobów z AI do obrotu powinny być szczególnie restrykcyjne

Kluczowym krokiem w ustaleniu odpowiedzialności za błędy medyczne z udziałem sztucznej inteligencji (AI) jest zbadanie przyczyny szkody – to od niej zależy, kto i na jakiej podstawie prawnej będzie odpowiadał. Moim zdaniem ocena odpowiedzialności za błędy medyczne z AI wymaga metodycznego podejścia, analizującego odpowiedzialność każdego podmiotu w łańcuchu – od lekarza, przez szpital aż po producenta systemu AI. Tylko po wykluczeniu błędów lekarza, błędów organizacyjnych szpitala czy innych czynników ludzkich możemy rozważyć odpowiedzialność za sam system AI jako narzędzie medyczne, czyli wyrób medyczny. Dlatego też zastosowanie do nich znajdą wspomniane rozporządzenia unijne oraz ustawa o wyrobach medycznych. Jednak w żadnym razie nie wyłącza to odpowiedzialności cywilnej za produkt niebezpieczny. Oba te reżimy wzajemnie się uzupełniają. Jeśli producent naruszy obowiązki wynikające z ustawy o wyrobach medycznych, może ponieść odpowiedzialność administracyjną, a także cywilną – na zasadzie winy za zaniedbania lub na zasadzie ryzyka za produkt niebezpieczny. Kluczowe jest zawsze ustalenie przyczyny szkody, która determinuje, kto i na jakiej podstawie poniesie odpowiedzialność.

Uważam, że procedury dopuszczenia wyrobów z AI do obrotu powinny być szczególnie restrykcyjne, zważywszy na ich wpływ na życie i zdrowie pacjentów. Proponuję wprowadzenie, szczegółowych procesów weryfikacji.

Odpowiedzialność twórców AI powinna być wyjątkowa i ograniczona do sytuacji, gdy nie dopełnili procedur. Jeśli producent przeszedł wszystkie oceny zgodności, a mimo to doszło do szkody, jego odpowiedzialność powinna być wyjątkowa. W przeciwnym razie obciążanie producentów za każdy incydent, nawet przy spełnieniu rygorystycznych wymogów, hamowałoby postęp technologiczny. Dlatego kluczowe jest, aby aparat państwowy przejmował część odpowiedzialności za dopuszczenie wyrobów medycznych z AI do obrotu poprzez rygorystyczne procedury weryfikacji. Jeśli produkt został legalnie dopuszczony, a producent dopełnił wszystkich obowiązków, odpowiedzialność cywilna powinna być ograniczona, chyba że wada produktu spełnia przesłanki odpowiedzialności za produkt niebezpieczny, co jest trudne do udowodnienia.

Nie oczekujmy, że pojawi się jeden przepis, który kompleksowo ureguluje odpowiedzialność za AI w medycynie, jasno wskazując winnego w każdym przypadku – czy to w razie śmierci pacjenta, czy innego incydentu. Jak pokazałam w artykule, różnorodność reżimów odpowiedzialności – od cywilnej, przez administracyjną po odpowiedzialność za produkt niebezpieczny – oraz złożoność okoliczności sprawiają, że uniwersalna recepta jest niemożliwa.

Karolina Kowalska

Radca prawny, mediator, założycielka Kancelarii Kowalska Legal

Aby precyzyjnie określić odpowiedzialność za błędy medyczne z AI, najpierw przeanalizujmy, jak wygląda odpowiedzialność za błędy medyczne w tradycyjnym ujęciu, bez nowoczesnych technologii. Błąd medyczny, zwany także błędem w sztuce lekarskiej, to działanie lub zaniechanie lekarza, pielęgniarki, ratownika medycznego czy innego pracownika ochrony zdrowia, sprzeczne z aktualną wiedzą medyczną, które prowadzi do szkody pacjenta. Odpowiedzialność za błędy medyczne może spoczywać na lekarzu, szpitalu czy ubezpieczycielu – wszystko zależy od okoliczności.

Pozostało jeszcze 95% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie Prawne
Izabela Piekarska: Nieaktualne adresy dłużników to plaga postępowań egzekucyjnych
Materiał Promocyjny
BIO_REACTION 2025
Opinie Prawne
Nartowski, Stasik: Spór o WIBOR, czyli „dwa plemiona mówiące innymi dialektami”
Opinie Prawne
Tomasz Pietryga: Czy Polska obudzi się w powyborczym kryzysie?
Opinie Prawne
Maciej Gutowski, Piotr Kardas: Pytania o wybory z perspektywy prawnika
Materiał Promocyjny
Cyberprzestępczy biznes coraz bardziej profesjonalny. Jak ochronić firmę
Opinie Prawne
Ewa Szadkowska: Sądy? A kogo one dziś obchodzą
Materiał Promocyjny
Pogodny dzień. Wiatr we włosach. Dookoła woda po horyzont