Na świecie zaczyna się na poważnie dyskusja o tym, jakim regułom powinny podlegać systemy sztucznej inteligencji (AI), i kto powinien decydować o treści tych reguł. Problem ten, jakkolwiek praktycznie nieobecny w polskiej przestrzeni publicznej, za chwilę będzie miał praktyczne przełożenie na naszą codzienną rzeczywistość. Być może warto, by w tej dyskusji zabrzmiały również polskie głosy – gdyż interwencja ustawodawcy jest nie do uniknięcia.
Czytaj także: Sztuczna inteligencja to wyzwanie prawne
Największe wyzwanie od stuleci
Jakkolwiek może się to wydawać początkowo oderwane od praktycznej rzeczywistości, to pojawienie się systemów sztucznej inteligencji stanowi największe od stuleci wyzwanie filozoficzne, etyczne i prawne.
Wyobraźmy sobie bowiem autonomiczny samochód, którym steruje program oparty na AI – wyobraźmy sobie również sytuację drogową, która zapewne zdarza się wielokrotnie każdego dnia na całym świecie – otóż na ulicę, przed nasz autonomiczny samochód, niespodziewanie wdziera się dwójka dzieci. Jedyna możliwość, by uniknąć ich potrącenia, to zmiana kierunku jazdy na przeciwny pas, z czym wiąże się niestety czołowe zderzenie z samochodem jadącym z naprzeciwka. W końcowym rezultacie – albo ucierpią nieostrożne dzieci, albo ucierpią osoby podróżujące „naszym" autonomicznym samochodem i pasażerowie w samochodzie jadącym z naprzeciwka. Jaką decyzję powinna podjąć sztuczna inteligencja – ratować dzieci czy pasażerów auta, którym kieruje?
Wyobraźmy sobie też robota medycznego sterowanego przez AI, który udaje się na miejsce katastrofy budowlanej, gdzie poszkodowanych (w różny sposób) jest wiele osób. Czy robot powinien ratować każdego po kolei (na zasadzie „kto pierwszy, ten lepszy"), czy też dokonać „selekcji" i na przykład zaniechać ratowania osoby na tyle rannej, że jest duże prawdopodobieństwo, że i tak nie przeżyje (po to, by ratować osoby, co do których wydaje się, że mają większe szanse na przeżycie)?