Czy sam fakt, iż pacjent został odpowiednio poinformowany, że decyzje podejmowane przez inteligentne oprogramowanie nie zawsze są w pełni trafne i przewidywalne, a sama aplikacja ma certyfikat odpowiedniego podmiotu publicznego, może zwalniać producenta od odpowiedzialności za działanie produktu?
Jak na podział kosztów leczenia wpłynie sytuacja, w której użytkownik nie zastosował się w pełni do instrukcji obsługi urządzenia?
A może w ogóle producent powinien odpowiadać za działanie dostarczanego urządzenia tylko w zakresie opartym o dane z jego wewnętrznych baz, nie zaś na danych pochodzących od użytkowników? Te i inne pytania dotyczące prawnych regulacji sztucznej inteligencji (SI) zaczną w niedługim czasie wymagać odpowiedzi także w polskich realiach prawnych.
Przykład
Sytuacja nienależąca bynajmniej do gatunku science fiction ani odległej przyszłości: źle czujący się człowiek sięga po aplikację zdrowotną na smartfonie. Odpowiada na serię szczegółowych pytań dotyczących samopoczucia, po czym skoordynowanym z aplikacją urządzeniem robi zdjęcia kilku obszarów ciała i mierzy sobie temperaturę. Korzystając z powiązanych baz danych aplikacja ustala diagnozę i opracowuje plan leczenia, który na bieżąco dostosowuje do zmian w stanie zdrowia pacjenta. Okazuje się jednak, że postawiona diagnoza była nieprawidłowa, a na skutek leczenia w organizmie pacjenta doszło do nieodwracalnych zmian. Teraz wymaga on dodatkowego leczenia, którego koszty wyniosą kilkadziesiąt tysięcy złotych. Kto powinien je ponieść?
Czytaj też: Roboty wkraczają do kancelarii