Sztuczna inteligencja to wyzwanie prawne

Sztuczna inteligencja to wyzwanie nie tylko natury gospodarczej, ale także prawnej. O ile bowiem nietrafiony wybór piosenki przez serwisy typu Spotify wydaje się niegroźny, to działania w sferze medycyny, ruchu drogowego czy systemu energetycznego mogą spowodować poważne i kosztowne konsekwencje. Warto zatem już dziś zastanowić się nad tym, jak regulacyjnie ująć w ramy prawne powiększający się arsenał tak zaawansowanych i zróżnicowanych technologii.

Publikacja: 22.06.2018 07:00

Sztuczna inteligencja to wyzwanie prawne

Foto: 123RF

Czy sam fakt, iż pacjent został odpowiednio poinformowany, że decyzje podejmowane przez inteligentne oprogramowanie nie zawsze są w pełni trafne i przewidywalne, a sama aplikacja ma certyfikat odpowiedniego podmiotu publicznego, może zwalniać producenta od odpowiedzialności za działanie produktu?

Jak na podział kosztów leczenia wpłynie sytuacja, w której użytkownik nie zastosował się w pełni do instrukcji obsługi urządzenia?

A może w ogóle producent powinien odpowiadać za działanie dostarczanego urządzenia tylko w zakresie opartym o dane z jego wewnętrznych baz, nie zaś na danych pochodzących od użytkowników? Te i inne pytania dotyczące prawnych regulacji sztucznej inteligencji (SI) zaczną w niedługim czasie wymagać odpowiedzi także w polskich realiach prawnych.

Przykład

Sytuacja nienależąca bynajmniej do gatunku science fiction ani odległej przyszłości: źle czujący się człowiek sięga po aplikację zdrowotną na smartfonie. Odpowiada na serię szczegółowych pytań dotyczących samopoczucia, po czym skoordynowanym z aplikacją urządzeniem robi zdjęcia kilku obszarów ciała i mierzy sobie temperaturę. Korzystając z powiązanych baz danych aplikacja ustala diagnozę i opracowuje plan leczenia, który na bieżąco dostosowuje do zmian w stanie zdrowia pacjenta. Okazuje się jednak, że postawiona diagnoza była nieprawidłowa, a na skutek leczenia w organizmie pacjenta doszło do nieodwracalnych zmian. Teraz wymaga on dodatkowego leczenia, którego koszty wyniosą kilkadziesiąt tysięcy złotych. Kto powinien je ponieść?

Czytaj też: Roboty wkraczają do kancelarii

Już tu jest

Sztuczna inteligencja coraz śmielej wkracza w nasze codzienne życie. Nie dalej niż w ubiegłym miesiącu globalny lider technologiczny zaprezentował nową technologię, dzięki której osobisty wirtualny asystent będzie w stanie samodzielnie umówić użytkownika do fryzjera, czy na przykład zarezerwować mu stolik na wieczór. W telefonicznych rozmowach z pracownikami salonu fryzjerskiego i restauracji wirtualny asystent reagował zaskakująco naturalnie na wypowiedzi rozmówców, nawet te nieoczekiwane. Równie fascynujące – ale i zastanawiające zarazem – były doniesienia prasowe o eksperymencie przeprowadzonym w listopadzie 2017 r., w trakcie którego samouczące się chatboty prowadząc ze sobą konwersację zaczęły używać własnego niezrozumiałego dla ludzi „języka", wskutek czego eksperyment został przerwany. Nie wypracowano dotąd regulacji prawnych dotyczących wprost i całościowo sztucznej inteligencji w kontekście dopuszczania do obrotu, odpowiedzialności itp. Unormowania doczekały się tylko wybrane, wyrywkowe zagadnienia – w Kalifornii weszły już na przykład w życie przepisy regulujące jazdę po publicznych drogach samochodami autonomicznymi.

Nie ma też jeszcze orzecznictwa sądów, do którego można by się odnieść chcąc ustanowić ogólne standardy odpowiedzialności za działania sztucznej inteligencji. W Polsce uregulowane prawnie są pewne kwestie sektorowe, takie jak np. dopuszczanie do obrotu wyrobów medycznych (także tych opartych na sztucznej inteligencji); nie istnieją natomiast regulacje całościowo obejmujące zagadnienie SI.

Jakie zasady odpowiedzialności

Obowiązujące obecnie zasady odpowiedzialności za

szkody wywoływane przez produkty posługujące się sztuczną inteligencją mogą okazać się niewystarczające. Producenci, importerzy czy sprzedawcy produktów tego typu odpowiadają dziś w Polsce z tytułu ewentualnych szkód na zasadach określonych dla produktów niebezpiecznych albo na zasadach ogólnych.

Odpowiedzialność za produkt powstaje, jeżeli produkt nie zapewnia bezpieczeństwa jakiego można od niego oczekiwać przy wprowadzaniu go do obrotu oraz przy uwzględnieniu stanu nauki i techniki co do przewidywania jego niebezpiecznych skutków.

Analogicznego związku przyczynowego wymaga się dla zaistnienia odpowiedzialności na zasadach ogólnych, mającej zastosowanie nie tylko do producentów, ale także do użytkowników produktów. Innymi słowy, szkoda musi być normalnym następstwem działania człowieka. Czy jednak można przewidzieć skutki działania technologii, która sama się uczy i podejmuje autonomiczne decyzje?

A jeśli przewidzieć tego nie można, to jak dopasować istniejące zasady odpowiedzialności do rozwiniętych technologii? Czy użytkownik powinien odpowiadać za działania „maszyny", jeżeli otrzymał wystarczająco jasną instrukcję co do sposobu jej działania? A może producenta powinno zwalniać z odpowiedzialności samo uzyskanie odpowiedniego zezwolenia od organu państwowego? Albo wręcz przeciwnie, jego odpowiedzialność powinna być obiektywna i możliwa do uchylenia jedynie wobec stuprocentowej winy użytkownika? Jak wreszcie kształtować odpowiedzialność użytkownika, który może nie w pełni rozumieć, jak działa robot?

Sytuację komplikuje dalej fakt, iż wytworzenie danego urządzenia wymaga zazwyczaj pracy wielu osób. Mamy tutaj nie tylko głównego producenta, ale także dostawcę poszczególnych części czy twórcę oprogramowania. Uwagi wymaga więc także kwestia tego, która z tych osób będzie odpowiedzialna za szkody poniesione przez użytkowników w określonych sytuacjach.

Są problemy z definicją

Pierwsze poważne problemy pojawiają się jednak już przy próbie zdefiniowania obszaru, który miałby podlegać regulacji. Pojęcia sztucznej inteligencji używa się bowiem powszechnie na określenie wielu, często zupełnie od siebie odmiennych rozwiązań technologicznych, z których każde może wymagać regulacji prawnej innego rodzaju.

Uniwersalnej definicji SI jeszcze się nie doczekaliśmy, ale praktycznie każdą z pojawiających się prób definicji można przypisać do jednej z czterech kategorii. Zgodnie z nimi robot:

- myśli jak człowiek,

- zachowuje się jak człowiek,

- myśli racjonalnie, bądź też,

- zachowuje się racjonalnie.

Pewną popularność w kontekście definiowania SI zdobył tzw. test Turinga, polegający na zbadaniu zdolności maszyny do posługiwania się językiem naturalnym i podobieństwa działania do ludzkiego (najprościej rzecz ujmując – gdy rozmawiający z maszyną człowiek nie dostrzega tego faktu, wynik testu jest pozytywny). Test ten może być adekwatny np. w odniesieniu do robotów komunikujących się z ludźmi w języku naturalnym w sposób „ludzki", ale z kolei w wielu zastosowaniach istotniejsze od sposobu komunikacji mogą być same decyzje podejmowane przez robota.

Inne wyzwania

Kolejnym elementem, na który zwraca się uwagę w kontekście przyszłej regulacji SI jest zrozumiałość sztucznej inteligencji dla użytkowników. Użytkownicy zaawansowanych technologii muszą oczywiście rozumieć, jak te technologie działają, bo tylko wtedy będą w stanie ocenić ryzyka związane z ich stosowaniem. Ale, wobec skomplikowanej natury algorytmów, ów postulat jasnego tłumaczenia zasad funkcjonowania SI musi być realizowany na pewnym poziomie ogólności. Trudno bowiem zakładać, że każdy skomplikowany mechanizm samouczących się robotów może być w pełni zrozumiany przez osoby nieposiadające eksperckiej wiedzy w tej dziedzinie. Wyzwaniem regulacyjnym będzie więc znalezienie „złotego środka" zapewniającego bezpieczeństwo użytkowników, ale także np. prawo pacjenta do uzyskania wyjaśnienia decyzji terapeutycznych, nawet (albo tym bardziej!) jeśli są one wspierane przez SI. Osobnym wyzwaniem jest uregulowanie zasad kontroli operatora danego systemu SI, co ma istotne znaczenie szczególnie w odniesieniu do systemów SI mających posiadać dużą autonomię.

Do rozważenia pozostaje wreszcie kształt i kompetencje agencji nadzorującej sztuczną inteligencję. Nasuwa się pytanie, czy dopuszczaniem SI do obrotu – w tym oceną instrukcji dla użytkowników – powinna się zająć specjalnie w tym celu utworzona agencja państwowa. Z drugiej strony można jednak wyobrazić sobie, że nowe obowiązki związane z SI zostaną nałożone na (w części już istniejące) organy sektorowe. Alternatywną opcją mógłby być system oparty na certyfikacji udzielanej przez niezależne podmioty.

W planach Komisji Europejskiej

We wspomnianym komunikacie Artificial Intelligence for Europe Komisja Europejska poinformowała, że do końca bieżącego roku chce uzgodnić z państwami członkowskim plan dotyczący uregulowania sztucznej inteligencji, w tym robotyki. Wśród zadań, które Komisja postawiła przed sobą znalazły się między innymi: opracowanie standardów etycznych dla sztucznej inteligencji oraz dokonanie interpretacji dyrektywy w sprawie odpowiedzialności za produkty wadliwe w kontekście SI.

Andrzej Balicki , Jolanta Dąbrowicz

Jak to jest w Pekinie

SI nie tylko budzi coraz powszechniejsze zainteresowanie zwolenników technokracji, ale staje się wręcz machiną napędową strategii rozwoju państw. Siłę jej potencjału doceniają między innymi Chiny, dążące do przekształcania się z kraju produkcyjnego w technologiczny; w Pekinie planowana jest budowa potężnego parku technologicznego, a do 2030 roku wartość rynku sztucznej inteligencji w Państwie Środka ma wynieść 150 mld dolarów. Tradycyjnym liderem SI pozostają jednak Stany Zjednoczone, określające sztuczną inteligencję jako jeden z priorytetów działalności badawczo-rozwojowej. Do tego wyścigu dołącza także Unia Europejska. W kwietniu tego roku Komisja Europejska wydała komunikat Artificial Intelligence for Europe, zgodnie z którym w latach 2014–2017 w tematykę związaną z SI zainwestowano w krajach UE 1,1 mld euro. Dalsze 2,7 mld euro Unia przeznacza na finansowanie badań z zakresu sztucznej inteligencji/robotyki w latach 2018–2020, stawiając sobie za cel wzmocnienie europejskiego potencjału w tych dziedzinach.

Jolanta Dąbrowicz associate w zespole regulacyjnym DLA Piper Wiater sp.k.

Najwyraźniej to jest dobry moment do rozpoczęcia wnikliwej dyskusji nad regulacjami prawnymi dotyczącymi sztucznej inteligencji. Można jednak przypuszczać, że poszczególne państwa członkowskie będą czekać na wskazane przez UE rozwiązania kierunkowe. Przewidziany na 2018 rok plan ma jednak zostać uzgodniony na poziomie wspólnotowym. Rozwiązaniem na chwilę obecną może być przyjmowanie kodeksów etycznych, zarówno przez poszczególnych wytwórców, jak i stowarzyszenia branżowe. Mogłyby one stać się pierwszym krokiem, jeszcze przed przyjęciem „twardych" rozwiązań prawnych. Zauważmy na koniec, że kodeksy dopuszczają większą elastyczność niż przepisy bezwzględnie obowiązującego prawa, co jest istotne w odniesieniu do tak nowatorskiej (zarówno technologicznie, jak i regulacyjnie) dziedziny jak SI. Zaś opracowanie konkretnych rozwiązań w ramach kodeksów etycznych mogłyby wzbogacić przyszłe prace legislacyjne.

Czy sam fakt, iż pacjent został odpowiednio poinformowany, że decyzje podejmowane przez inteligentne oprogramowanie nie zawsze są w pełni trafne i przewidywalne, a sama aplikacja ma certyfikat odpowiedniego podmiotu publicznego, może zwalniać producenta od odpowiedzialności za działanie produktu?

Jak na podział kosztów leczenia wpłynie sytuacja, w której użytkownik nie zastosował się w pełni do instrukcji obsługi urządzenia?

Pozostało 96% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Prawo karne
CBA zatrzymało znanego adwokata. Za rządów PiS reprezentował Polskę
Spadki i darowizny
Poświadczenie nabycia spadku u notariusza: koszty i zalety
Podatki
Składka zdrowotna na ryczałcie bez ograniczeń. Rząd zdradza szczegóły
Ustrój i kompetencje
Kiedy można wyłączyć grunty z produkcji rolnej
Sądy i trybunały
Sejm rozpoczął prace nad reformą TK. Dwie partie chcą odrzucenia projektów