Michał Szułdrzyński: Sztuczna inteligencja w służbie armii

Ujawnienie informacji o tym, że Pentagon podpisał umowę z amerykańskim gigantem internetowym, a zarazem jednym z pionierów prac nad sztuczną inteligencją zwaną projektem Maven, było dla wielu osób szokiem.

Publikacja: 25.05.2018 15:00

Michał Szułdrzyński: Sztuczna inteligencja w służbie armii

Foto: Fotorzepa, Waldemar Kompała

Oprogramowanie dostarczone przez Google'a miałoby przyspieszyć prace nad stworzeniem systemów, które sprawiłyby, że drony same będą w stanie „rozumieć" obraz ze swych kamer, odróżniać osoby i obiekty. W efekcie w zeszłym tygodniu 12 inżynierów postanowiło w proteście zrezygnować z pracy w Google'u. Powód? Uznali, że tworzenie systemu, który pomoże sztucznej inteligencji podejmować autonomiczne decyzje dotyczące ataku, wywołuje bardzo poważne problemy natury moralnej. Sytuacja, w której to komputer będzie decydować o zbombardowaniu jakiegoś obiektu czy ostrzelaniu grupy osób, które uzna za terrorystów, to już nie scenariusz filmu science fiction. Nad jego realizacją pracują właśnie eksperci zatrudnieni przy projekcie Maven.

Sprawa rzeczywiście jest poważna. Podczas wojny w Afganistanie, gdzie ważną rolę odgrywały drony, sporo czytaliśmy o problemach emocjonalnych żołnierzy, którzy po odwiezieniu dzieci do szkoły, jechali do jednostki wojskowej i na osiem godzin zasiadali przy konsoli operatora dronu, przeprowadzali atak, odpalali rakiety, po czym wracali do domu zjeść z rodziną kolację. Teoretycznie autonomiczne drony mogą polepszyć kondycję psychiczną żołnierzy. Ale pojawiają się tu bardzo poważne problemy.

Warto bowiem przypomnieć sobie pozornie niezwiązany z projektem Maven incydent z marca tego roku. Na przedmieściach miasta Phoenix w miejscowości Tempe zginęła 49-letnia Elaine Herzberg. Na zdjęciach pokazywanych przez lokalną policję widać było pogruchotany rower i stojącego na środku drogi luksusowego suva VolvoXC90. Do potrącenia Herzberg (która zmarła w wyniku odniesionych ran) doszło, gdy pojazd poruszał się z prędkością 65 km na godz. Nie byłoby w tym wypadku nic szczególnego, gdyby nie fakt, że był to testowy przejazd w ramach wielkiego – finansowanego przez firmę Uber – programu budowy autonomicznych taksówek.

Opublikowane niedawno przecieki ze śledztwa w tej sprawie pokazały, że systemowi sztucznej inteligencji kierującej tym pojazdem wcale nie umknęła kobieta prowadząca rower. Maszyna „zdecydowała" się nie reagować, dlatego pojazd nawet nie zaczął hamować. System bowiem zaprojektowano tak, by ignorował spadające z drzew liście lub walające się po ulicach śmieci. Najprawdopodobniej dlatego, że Herzberg prowadziła rower, na którym zawieszone były torby z zakupami, sztuczna inteligencja „podjęła decyzję", że nie należy się zatrzymać, lecz można tę przeszkodę zignorować.

Nie trudno więc, per analogiam, wyobrazić sobie błędne decyzje podejmowane przez drony bojowe sterowane przez sztuczną inteligencję. Tego typu zjawiska mogą mieć poważne konsekwencje moralne. Kto odpowie za zbombardowanie szpitala zamiast bunkra terrorystów? Pentagon, producent dronów, operator wprowadzający zadania czy producent oprogramowania? Ale strach pomyśleć również o konsekwencjach międzynarodowych – błąd drona może wywołać konflikt zbrojny i doprowadzić do gigantycznej tragedii.

Ale mówimy tu nie tylko o błędach sztucznej inteligencji. Jeśli to dron na podstawie algorytmów sam będzie atakował, odpalał rakiety i spuszczał bomby, rośnie ryzyko zhakowania jego pracy przez inne państwo, grupę terrorystyczną czy też „zwykłych" cyberterrorystów.

Czyż nie brzmi to przerażająco? A co gorsza, nad wprowadzeniem tak potencjalnie niebezpiecznego systemu pracują właśnie najlepsi inżynierowie świata.

PLUS MINUS

Prenumerata sobotniego wydania „Rzeczpospolitej”:

prenumerata.rp.pl/plusminus

tel. 800 12 01 95

Oprogramowanie dostarczone przez Google'a miałoby przyspieszyć prace nad stworzeniem systemów, które sprawiłyby, że drony same będą w stanie „rozumieć" obraz ze swych kamer, odróżniać osoby i obiekty. W efekcie w zeszłym tygodniu 12 inżynierów postanowiło w proteście zrezygnować z pracy w Google'u. Powód? Uznali, że tworzenie systemu, który pomoże sztucznej inteligencji podejmować autonomiczne decyzje dotyczące ataku, wywołuje bardzo poważne problemy natury moralnej. Sytuacja, w której to komputer będzie decydować o zbombardowaniu jakiegoś obiektu czy ostrzelaniu grupy osób, które uzna za terrorystów, to już nie scenariusz filmu science fiction. Nad jego realizacją pracują właśnie eksperci zatrudnieni przy projekcie Maven.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Plus Minus
Prawdziwa natura bestii
Materiał Promocyjny
Wykup samochodu z leasingu – co warto wiedzieć?
Plus Minus
Śmieszny smutek trzydziestolatków
Plus Minus
O.J. Simpson, stworzony dla Ameryki
Plus Minus
Jan Maciejewski: Granica milczenia
Materiał Promocyjny
Jak kupić oszczędnościowe obligacje skarbowe? Sposobów jest kilka
Plus Minus
Upadek kraju cedrów