Oprogramowanie dostarczone przez Google'a miałoby przyspieszyć prace nad stworzeniem systemów, które sprawiłyby, że drony same będą w stanie „rozumieć" obraz ze swych kamer, odróżniać osoby i obiekty. W efekcie w zeszłym tygodniu 12 inżynierów postanowiło w proteście zrezygnować z pracy w Google'u. Powód? Uznali, że tworzenie systemu, który pomoże sztucznej inteligencji podejmować autonomiczne decyzje dotyczące ataku, wywołuje bardzo poważne problemy natury moralnej. Sytuacja, w której to komputer będzie decydować o zbombardowaniu jakiegoś obiektu czy ostrzelaniu grupy osób, które uzna za terrorystów, to już nie scenariusz filmu science fiction. Nad jego realizacją pracują właśnie eksperci zatrudnieni przy projekcie Maven.
Sprawa rzeczywiście jest poważna. Podczas wojny w Afganistanie, gdzie ważną rolę odgrywały drony, sporo czytaliśmy o problemach emocjonalnych żołnierzy, którzy po odwiezieniu dzieci do szkoły, jechali do jednostki wojskowej i na osiem godzin zasiadali przy konsoli operatora dronu, przeprowadzali atak, odpalali rakiety, po czym wracali do domu zjeść z rodziną kolację. Teoretycznie autonomiczne drony mogą polepszyć kondycję psychiczną żołnierzy. Ale pojawiają się tu bardzo poważne problemy.
Warto bowiem przypomnieć sobie pozornie niezwiązany z projektem Maven incydent z marca tego roku. Na przedmieściach miasta Phoenix w miejscowości Tempe zginęła 49-letnia Elaine Herzberg. Na zdjęciach pokazywanych przez lokalną policję widać było pogruchotany rower i stojącego na środku drogi luksusowego suva VolvoXC90. Do potrącenia Herzberg (która zmarła w wyniku odniesionych ran) doszło, gdy pojazd poruszał się z prędkością 65 km na godz. Nie byłoby w tym wypadku nic szczególnego, gdyby nie fakt, że był to testowy przejazd w ramach wielkiego – finansowanego przez firmę Uber – programu budowy autonomicznych taksówek.
Opublikowane niedawno przecieki ze śledztwa w tej sprawie pokazały, że systemowi sztucznej inteligencji kierującej tym pojazdem wcale nie umknęła kobieta prowadząca rower. Maszyna „zdecydowała" się nie reagować, dlatego pojazd nawet nie zaczął hamować. System bowiem zaprojektowano tak, by ignorował spadające z drzew liście lub walające się po ulicach śmieci. Najprawdopodobniej dlatego, że Herzberg prowadziła rower, na którym zawieszone były torby z zakupami, sztuczna inteligencja „podjęła decyzję", że nie należy się zatrzymać, lecz można tę przeszkodę zignorować.
Nie trudno więc, per analogiam, wyobrazić sobie błędne decyzje podejmowane przez drony bojowe sterowane przez sztuczną inteligencję. Tego typu zjawiska mogą mieć poważne konsekwencje moralne. Kto odpowie za zbombardowanie szpitala zamiast bunkra terrorystów? Pentagon, producent dronów, operator wprowadzający zadania czy producent oprogramowania? Ale strach pomyśleć również o konsekwencjach międzynarodowych – błąd drona może wywołać konflikt zbrojny i doprowadzić do gigantycznej tragedii.