Musk, Hawking, Wozniak: zatrzymać Terminatora

Według najwybitniejszych naukowców i specjalistów od sztucznej inteligencji stworzenie autonomicznej broni jest tylko kwestią czasu. W liście otwartym wzywają oni do wprowadzenia zakazu prac nad takimi maszynami.

Aktualizacja: 27.07.2015 18:32 Publikacja: 27.07.2015 17:52

Campaign to Stop Killer Robots organiazacji pozarządowych chce zakazu użycia autonomicznych maszyn d

Campaign to Stop Killer Robots organiazacji pozarządowych chce zakazu użycia autonomicznych maszyn do zabijania

Foto: materiały prasowe

List podpisali m.in. fizyk Stephen Hawking, przedsiębiorca Elon Musk, współtwórca Apple'a Steve Wozniak, filozof Noam Chomsky i Stephen Goose (Human Rights Watch) i Demis Hassabis z Google Deep Mind. Dokument, spisany przez Future of Life Institute, przedstawiono oficjalnie podczas konferencji naukowej poświęconej zagadnieniom sztucznej inteligencji — International Joint Conference on Artificial Intelligence odbywającej się właśnie w Buenos Aires w Argentynie.

„Rozpoczęcie nowego wyścigu zbrojeń na systemy sztucznej inteligencji to zły pomysł i powinniśmy mu zapobiec przez zakaz budowy ofensywnych autonomicznych systemów uzbrojenia działających bez kontroli człowieka" — napisali naukowcy. „Wierzymy, że sztuczna inteligencja ma ogromny potencjał aby przysłużyć się ludzkości, jednak technologiczna trajektoria nie pozostawia złudzeń: zrobotyzowana broń stanie się kałasznikowami jutra".

„Technologia sztucznej inteligencji osiągnęła ten etap rozwoju, kiedy już wiadomo, że użycie autonomicznej broni jest praktycznie możliwe w ciągu kilku lat, a nie dekad" — cytuje list otwarty „The Guardian". „Stawka jest wysoka: autonomiczna broń traktowana jest jako trzecia rewolucja w technice wojskowej — po prochu i broni atomowej".

Według specjalistów „autonomiczny system uzbrojenia" to taki, który może wybierać cele i rozpoczynać atak bez interwencji człowieka. Oznacza to, że takimi systemami nie są zdalnie sterowane pojazdy wykorzystywane już obecnie do niszczenia odległych celów, ale drony wyposażone w broń i komputer, który podejmuje samodzielnie decyzję o otwarciu ognia — już tak.

Zdaniem naukowców próba stworzenia zabójczych robotów przez jedną stronę konfliktu skończy się wyścigiem zbrojeń podobnym, jak podczas zimnej wojny, kiedy rozrosły się arsenały atomowe. Tyle że — argumentują specjaliści — wytwarzanie „terminatorów" nie wymaga dostępu do specjalnych materiałów i surowców, czy testowania w odosobnionych miejscach. Rozwój tej technologii będzie bardzo trudny do kontrolowania.

Future of Life Institute już wcześniej ostrzegał przed dominacją sztucznej inteligencji. W poprzednim dokumencie alarmował, że inteligentne maszyny w dłuższej perspektywie zagrożą nie tylko istnieniu społeczeństwa w obecnej formie, ale wręcz fizycznie istnieniu naszego gatunku. „Musimy mieć pewność, że coraz doskonalsze systemy sztucznej inteligencji będą robić to, czego od nich wymagamy" — głosił dokument, pod którym również widnieją podpisy m.in. Muska, Hawkinga. Oni sami nie ukrywają nieufności wobec systemów sztucznej inteligencji. Porównywali ją już do demona, który wyrwie się spod kontroli człowieka i nazywali „największym zagrożeniem dla istnienia rasy ludzkiej".

Teraz Instytut, dzięki dotacji w wysokości 10 mln dolarów od Elona Muska dofinansuje 37 projektów badawczych, których celem jest „zapanowanie" nad systemami sztucznej inteligencji i zapewnienie, że zostaną one wykorzystane w pokojowy sposób. Nad zagadnieniem wykorzystania samodzielnych systemów uzbrojenia na polu walki debatują również ONZ. Na razie bez efektów.

List podpisali m.in. fizyk Stephen Hawking, przedsiębiorca Elon Musk, współtwórca Apple'a Steve Wozniak, filozof Noam Chomsky i Stephen Goose (Human Rights Watch) i Demis Hassabis z Google Deep Mind. Dokument, spisany przez Future of Life Institute, przedstawiono oficjalnie podczas konferencji naukowej poświęconej zagadnieniom sztucznej inteligencji — International Joint Conference on Artificial Intelligence odbywającej się właśnie w Buenos Aires w Argentynie.

„Rozpoczęcie nowego wyścigu zbrojeń na systemy sztucznej inteligencji to zły pomysł i powinniśmy mu zapobiec przez zakaz budowy ofensywnych autonomicznych systemów uzbrojenia działających bez kontroli człowieka" — napisali naukowcy. „Wierzymy, że sztuczna inteligencja ma ogromny potencjał aby przysłużyć się ludzkości, jednak technologiczna trajektoria nie pozostawia złudzeń: zrobotyzowana broń stanie się kałasznikowami jutra".

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Materiał Promocyjny
Polska na czele rewolucji technologii kwantowych
Materiał partnera
Technologie kwantowe: nauka tworzy szanse dla gospodarki
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska