Michał Szułdrzyński: Etyka, rozum, zabójcze drony i roboty

Niemal niezauważona przeszła ONZ-etowska konferencja, która odbyła się pod koniec sierpnia w Genewie. No cóż, nikt tam nikogo nie spoliczkował ani nie nazwał kanalią. Spotkanie nie było głośne, choć dotyczyło spraw, które w przyszłości mogą się okazać śmiertelnie poważne.

Publikacja: 07.09.2018 18:00

Michał Szułdrzyński: Etyka, rozum, zabójcze drony i roboty

Foto: Fotorzepa, Waldemar Kompala

Zebrani debatowali bowiem nad tym, jak uregulować działanie autonomicznych dronów bojowych (z ang. LAWS), które dzięki rozwojowi sztucznej inteligencji (SI) mogą samodzielnie podejmować decyzję o wyborze celu i ataku. Zebrani przyjęli dziesięć zasad dotyczących kontrolowania przez człowieka tego typu broni. Jak podaje agencja AP, w jednej z nich zaznaczono, że nie można dopuścić do sytuacji, w której to wyłącznie maszyny będą ponosiły odpowiedzialność za używanie śmiercionośnej broni.

Hindus Amandeep Gill, który przewodniczył obradom, wyraził satysfakcję z przyjętych ustaleń, podobnie zresztą jak sekretarz generalny ONZ. Jak relacjonował Gill, istnieją trzy podejścia do sprawy. Większość krajów domaga się absolutnego zakazu budowy i testowania autonomicznej broni. Część proponuje wprowadzenie rozwiązań prawnych, które będą regulowały ich stosowanie. Istnieje też grupa państw, które uważają, że nie powinno się wprowadzać żadnych ograniczeń. Nieoficjalnie należą do nich m.in USA, Izrael i Rosja. A ponieważ nie osiągnięto jednomyślności, decyzję, co zrobić z ewentualnymi regulacjami, odłożono do kolejnej konferencji, która ma się odbyć w listopadzie.

Prawdopodobnie żaden kraj nie dysponuje jeszcze w pełni autonomiczną bronią opartą na sztucznej inteligencji, więc sprawa może się nie wydawać tak pilna. Jednak rozwój SI jest dziś szybszy, niż ktokolwiek mógłby przypuszczać. Pociąga też za sobą mnóstwo problemów moralnych, prawnych i politycznych. Po niedawnym śmiertelnym wypadku z udziałem autonomicznego pojazdu Ubera rozgorzała dyskusja, kto odpowiada za śmierć przechodnia. Operator pojazdu? Jego właściciel? Producent? A może programista, który skonstruował algorytmy sztucznej inteligencji podejmujące decyzję, kiedy zahamować, a kiedy jechać bez zatrzymania?

Rozwój robotyki przynosi podobne dylematy. Jednak zabijające roboty podnoszą te problemy do kwadratu. Błędne decyzje autonomicznych dronów bojowych, skutkujące śmiercią dziesiątek czy nawet setek niewinnych osób, mogą wywołać konsekwencje trudne dziś nawet do przewidzenia, nie mówiąc o buncie maszyn czy przejęciu ich przez hakerów.

Tu dochodzimy do najbardziej pasjonującego dziś wyzwania, jakim jest spotkanie nauki i technologii z etyką. Skrajni scjentyści przekonują, że rozum i nauka to kategorie zupełnie odrębne od moralności i nie powinno się ich w żaden sposób łączyć. Dlatego protestują, gdy pojawiają się propozycje ograniczenia badań w pewnych sferach, np. gdy katolicy ostrzegają przed manipulacjami genetycznymi na ludzkich embrionach.

Również problem LAWS pokazuje ograniczenia scjentyzmu. Przed niekontrolowanym rozwojem sztucznej inteligencji ostrzegali tacy zwolennicy racjonalizmu, jak Stephen Hawking. SI w połączeniu z bronią to naprawdę śmiertelnie niebezpieczna mieszanka. Postawienie prawnych ograniczeń, które mają de facto moralne uzasadnienie, nie jest więc żadnym mieszaniem nieracjonalnej rzekomo etyki z działaniem rozumu, ale zwyczajnym działaniem na rzecz bezpieczeństwa gatunku ludzkiego. I właśnie ta ostrożność jak najbardziej racjonalnie sugeruje nam dziś, byśmy postawili szlaban niczym nieograniczonym eksperymentom ludzkiego rozumu przy konstruowaniu zabijających robotów.

PLUS MINUS

Prenumerata sobotniego wydania „Rzeczpospolitej”:

prenumerata.rp.pl/plusminus

tel. 800 12 01 95

Zebrani debatowali bowiem nad tym, jak uregulować działanie autonomicznych dronów bojowych (z ang. LAWS), które dzięki rozwojowi sztucznej inteligencji (SI) mogą samodzielnie podejmować decyzję o wyborze celu i ataku. Zebrani przyjęli dziesięć zasad dotyczących kontrolowania przez człowieka tego typu broni. Jak podaje agencja AP, w jednej z nich zaznaczono, że nie można dopuścić do sytuacji, w której to wyłącznie maszyny będą ponosiły odpowiedzialność za używanie śmiercionośnej broni.

Pozostało 84% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
Plus Minus
Tomasz P. Terlikowski: Zanim nadeszło Zmartwychwstanie
Plus Minus
Bogaci Żydzi do wymiany
Plus Minus
Robert Kwiatkowski: Lewica zdradziła wyborców i członków partii
Plus Minus
Jan Maciejewski: Moje pierwsze ludobójstwo
Plus Minus
Ona i on. Inne geografie. Inne historie