Google kupiło właśnie firmę Boston Dynamics, konstruującą roboty, które wyglądają, jakby pochodziły z filmów science fiction. W Boston Dynamics większość konstrukcji powstała na zlecenie wojska – Agencji Zaawansowanych Obronnych Projektów Badawczych DARPA. To maszyny dla wojska.

Wykorzystanie robotów na wojnie brane jest pod uwagę także w Polsce. Raport „Człowiek Maszyna Bezpieczeństwo. Systemy inteligentne w zarządzaniu kryzysowym i działaniach militarnych"  opracował think tank Instytut Mikromakro. Zadaniem, jakie postawili przed sobą autorzy raportu, jest przybliżenie problematyki związanej z wkraczaniem do infrastruktury państwa maszyn cywilnych i wojskowych wyposażonych w sztuczną inteligencję. Raport przeznaczony jest dla wszystkich zainteresowanych, ale wśród odbiorców są wojskowi, policjanci, zarządzający centrami antykryzysowymi.

– Raport jest kwintesencją debaty, jaką toczymy w ramach projektu „Pięć żywiołów. Wolność, Informacja, Bezpieczeństwo" – wyjaśnia „Rz" Sławomir Kosieliński, prezes zarządu Fundacji „Instytut Mikromakro".

Szczególną uwagę autorzy raportu poświęcają etyce robotów. Co prawda ani w wojsku, ani w innych polskich służbach na przykład drony – czyli bezzałogowe maszyny latające wyposażone w broń jeszcze nie są używane, ale to może się zmienić.

– Chcieliśmy pokazać mechanizm, jak człowiek deleguje zadania na maszyny, ale też wskazać na sposób, w jaki musi wziąć odpowiedzialność za swoje dzieło – wyjaśnia Kosieliński. – Czy jesteśmy w stanie oddać nasze życie w ręce robotów? Podkreślamy konieczność zastosowania odpowiednich algorytmów, dbania o jakość oprogramowania. Opinia publiczna jest przeciwna dronom na wojnie. Zgłaszane są absurdalne postulaty, aby zakazać użycia robotów w walce, żeby wojny  w XXI wieku prowadzili ludzie!

Autorzy raportu wskazują też na konieczność zmiany prawa obejmującego zasady użycia maszyn.

– Dziś nie ma możliwości nie tylko wysłać robota czy drona na pole walki, ale nawet zbudować tramwaju, który poruszałby się bez motorniczego – przestrzega Kosieliński.