List podpisali m.in. fizyk Stephen Hawking, przedsiębiorca Elon Musk, współtwórca Apple'a Steve Wozniak, filozof Noam Chomsky i Stephen Goose (Human Rights Watch) i Demis Hassabis z Google Deep Mind. Dokument, spisany przez Future of Life Institute, przedstawiono oficjalnie podczas konferencji naukowej poświęconej zagadnieniom sztucznej inteligencji — International Joint Conference on Artificial Intelligence odbywającej się właśnie w Buenos Aires w Argentynie.
„Rozpoczęcie nowego wyścigu zbrojeń na systemy sztucznej inteligencji to zły pomysł i powinniśmy mu zapobiec przez zakaz budowy ofensywnych autonomicznych systemów uzbrojenia działających bez kontroli człowieka" — napisali naukowcy. „Wierzymy, że sztuczna inteligencja ma ogromny potencjał aby przysłużyć się ludzkości, jednak technologiczna trajektoria nie pozostawia złudzeń: zrobotyzowana broń stanie się kałasznikowami jutra".
„Technologia sztucznej inteligencji osiągnęła ten etap rozwoju, kiedy już wiadomo, że użycie autonomicznej broni jest praktycznie możliwe w ciągu kilku lat, a nie dekad" — cytuje list otwarty „The Guardian". „Stawka jest wysoka: autonomiczna broń traktowana jest jako trzecia rewolucja w technice wojskowej — po prochu i broni atomowej".
Według specjalistów „autonomiczny system uzbrojenia" to taki, który może wybierać cele i rozpoczynać atak bez interwencji człowieka. Oznacza to, że takimi systemami nie są zdalnie sterowane pojazdy wykorzystywane już obecnie do niszczenia odległych celów, ale drony wyposażone w broń i komputer, który podejmuje samodzielnie decyzję o otwarciu ognia — już tak.
Zdaniem naukowców próba stworzenia zabójczych robotów przez jedną stronę konfliktu skończy się wyścigiem zbrojeń podobnym, jak podczas zimnej wojny, kiedy rozrosły się arsenały atomowe. Tyle że — argumentują specjaliści — wytwarzanie „terminatorów" nie wymaga dostępu do specjalnych materiałów i surowców, czy testowania w odosobnionych miejscach. Rozwój tej technologii będzie bardzo trudny do kontrolowania.