[b]Czy roboty powinny decydować o tym, kogo zabić? Nie boi się pan, że będą popełniały więcej błędów niż żołnierze? [/b]
[b]prof. Ronald Arkin, szef laboratorium konstruującego roboty dla armii z Georgia Tech University:[/b] Żadna nowa technologia nie jest wolna od błędów. Ważne jest, by roboty zostały dobrze przetestowane i nie były wprowadzane w pośpiechu na pole bitwy. W mojej nowej książce „Governing Lethal Behaviour in Autonomous Robots” (Kontrola morderczych zachowań niezależnych robotów) piszę o tym, że roboty mogą się kierować zasadami, których muszą przestrzegać żołnierze. Można spowodować, że będą postępowały zgodnie z zasadami konwencji genewskiej i używały broni tylko w przypadku, kiedy będzie wystarczające prawdopodobieństwo, że mają do czynienia z uzbrojonym wrogiem, a nie z cywilem. Jeśli te zasady będą respektowane, jestem przekonany, że robot będzie popełniał mniej błędów od człowieka. Zresztą w wielu przypadkach już tak się dzieje.
[b]Nie ma pan wrażenia, że ta technologia jest wprowadzana w pośpiechu?[/b]
Właśnie przeczytałem w „Wall Street Journal” artykuł o testowaniu robotów w Izraelu. Nie potrafię powiedzieć, jak jest z ich wprowadzaniem do armii w innych krajach. Mogę jednak zapewnić, że Stany Zjednoczone mają bardzo rygorystyczne zasady wprowadzania nowych technologii na pole walki. Te, które są wykorzystywane do tej pory, sprawdzają się doskonale. To różnego rodzaju inteligentne uzbrojenie, które z pewnością działa skuteczniej, niż gdyby kierowanie nimi należało do człowieka.
[b]Niektórzy krytycy twierdzą, że roboty spowodują fundamentalne zmiany w prowadzeniu wojen i nie będą to zmiany na lepsze. Wojny będą dłuższe i bardziej krwawe, bo strona, która zdobędzie przewagę technologiczną, nie będzie ponosić strat w ludziach i nie będzie pod presją, by zawrzeć pokój. Zabijanie jest zapewne łatwiejsze, kiedy się nie stoi twarzą w twarz z przeciwnikiem. [/b]