Reklama
Rozwiń
Reklama

Człowiek sprowadzony do gołych parametrów

Rozmowa z Miszą Tomaszewskim, nauczycielem filozofii i redaktorem naczelnym magazynu „Kontakt”

Publikacja: 13.07.2016 20:41

Człowiek sprowadzony do gołych parametrów

Foto: AFP

Coraz więcej słyszy się o błędach samochodowych autopilotów, na których ucierpieli ludzie. Czy komputery pokładowe powinny rozstrzygać dylematy moralne, jeśli potencjalnie mogą zagrozić bezpieczeństwu pasażerów?

Misza Tomaszewski: Istnieje duże prawdopodobieństwo, że systemy testowane przez Google’a czy Teslę, zostaną wprowadzone do masowej produkcji. Wtedy producent będzie podejmował decyzje, mające moralne konsekwencje, w imieniu użytkowników. A gdy komputer pokładowy ma w perspektywie zderzenie czołowe, powinien ryzykować życiem kierowcy czy śmiercią osób postronnych? Sytuacja bardziej się komplikuje, jeśli np. da się wziąć pod uwagę, ile jest osób w samochodzie jadącym z przeciwka.

Co komputer powinien wziąć pod uwagę?

Najbardziej oczywistym krokiem byłby wybór modelu utylitarnego, w którym samochód zawsze będzie minimalizował straty, liczbę prawdopodobnych ofiar. Ale wpadamy w kolejne pytania – o to, czy mamy też mierzyć wiek ludzi, dane na temat ich stanu zdrowia itp. Czy uczestnik zdarzenia zawinił, narażając życie innych ludzi, powinien więc ponosić większe ryzyko? Przecież z tego punktu widzenia lepiej, żeby zginęły dwie osoby starsze albo ciężko chore, niż jedna młoda i zdrowa.. To wydaje mi się jednak otwieraniem drogi do bardzo dehumanizujących wyliczeń. Wtedy sprowadzamy człowieka do gołych parametrów.

Czy w takim razie autopilot powinien mieć możliwość podejmowania decyzji w sprawie ludzkiego życia?

Reklama
Reklama

Jedno z możliwych rozwiązań zakłada, że nabywca samochodu sam dokonywałby wyboru, wprowadzając do auta pewne wstępne założenia. W tym sensie brałby na siebie moralną odpowiedzialność. Druga opcja jest taka, że decyzję za człowieka podejmie producent lub urzędnik, nie pozostawiając miejsca na indywidualny wybór, rodzaj „klauzuli sumienia”. Np. wprowadzając jakiś samochód na rynek europejski, zbierze się komisja etyczna, która określi warunki brzegowe dla podejmowania konkretnych decyzji przez komputer pokładowy. Jednak niezależnie od ustalonych norm moralnych, ktoś kto używa tego wehikułu, powinien być świadomy konsekwencji. Bierze za nie moralną odpowiedzialność. To bardzo abstrakcyjne, bo mało kto, wsiadając do samochodu, myśli o tym, że będzie uczestniczył w wypadku samochodowym – szczególnie takim, ze skutkiem śmiertelnym.

Czy moralnie dopuszczalne jest prowadzenie badań nad rozwojem algorytmów, które mają dotyczyć decyzji o życiu ludzkim?

Jedynie w sytuacji, w której jesteśmy skazani na to, żeby wartościować ludzkie życie. Z punktu widzenia władz publicznych lub wizerunku firmy, utylitaryzm, redukujący liczbę ofiar, staje się najbardziej czytelnym kryterium. Wygląda neutralnie światopoglądowo, chociaż nie wydaje mi się, żeby taki był. Główną zasadą sterującą algorytmami maszyny, stałoby się więc minimalizowanie cierpienia. Trudno też stwierdzić, na ile taki algorytm jest technicznie możliwy do zrealizowania. Nawet jeżeli jeszcze nie da się tego zrobić, to pewnie niedługo będzie to możliwe.

- rozmawiał Jan Ziętara

Coraz więcej słyszy się o błędach samochodowych autopilotów, na których ucierpieli ludzie. Czy komputery pokładowe powinny rozstrzygać dylematy moralne, jeśli potencjalnie mogą zagrozić bezpieczeństwu pasażerów?

Misza Tomaszewski: Istnieje duże prawdopodobieństwo, że systemy testowane przez Google’a czy Teslę, zostaną wprowadzone do masowej produkcji. Wtedy producent będzie podejmował decyzje, mające moralne konsekwencje, w imieniu użytkowników. A gdy komputer pokładowy ma w perspektywie zderzenie czołowe, powinien ryzykować życiem kierowcy czy śmiercią osób postronnych? Sytuacja bardziej się komplikuje, jeśli np. da się wziąć pod uwagę, ile jest osób w samochodzie jadącym z przeciwka.

Reklama
Opinie polityczno - społeczne
Marek A. Cichocki: Recepta na pewną katastrofę Europy
Opinie polityczno - społeczne
Joanna Napierała: Po co nam dziś IPN i polityka historyczna
Opinie polityczno - społeczne
Kiedy pękają tamy – jak budować odporność społeczną na kryzysy?
Opinie polityczno - społeczne
Jarosław Kuisz: Pułapka fasadowego nacjonalizmu
Materiał Promocyjny
Manager w erze AI – strategia, narzędzia, kompetencje AI
Opinie polityczno - społeczne
Juliusz Braun: A może czas na reset w sprawie edukacji zdrowotnej?
Materiał Promocyjny
eSIM w podróży: łatwy dostęp do internetu za granicą, bez opłat roamingowych
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama