Ponad setka ofiar w irańskiej szkole w Minab, zlokalizowanej niedaleko bazy Korpusu Strażników Rewolucji Islamskiej, to prawdopodobnie skutek ataku dokonanego przez AI. Tak twierdzą analitycy, choć wciąż nie ma oficjalnych informacji potwierdzających, że to bot wyznaczył cel i zdecydował o uderzeniu. Eksperci ostrzegają jednak: w kontekście broni sterowanej przez algorytmy przekraczamy właśnie niebezpieczną granicę. – AI może prowadzić do eskalowania rozmiarów szkód i liczby ofiar konfliktów zbrojnych – mówi nam Kaja Kowalczewska, adiunktka w Inkubatorze Doskonałości Naukowej „Digital Justice Center” na Uniwersytecie Wrocławskim i na Uniwersytecie w Swansea, ekspertka AI Law Tech.
Czy teraz sztuczna inteligencja będzie decydować o życiu lub śmierci człowieka? – Jesteśmy w przełomowym momencie dla ludzkości – przyznaje Nicole Van Rooijen, dyrektor wykonawcza inicjatywy Stop Killer Robot.
20 sekund na życie. Jak człowiek wypada z „pętli decyzyjnej”
W Genewie ruszyły właśnie kluczowe rozmowy ONZ na temat w pełni autonomicznej broni. Potrwają do końca tygodnia. Jałowa dyskusja, spory o definicje i detale nie wróżą przełomu. Van Rooijen ostrzega: Tempo rozwoju technologicznego nie będzie czekać, aż dyplomacja stanie na nogi. – Z każdym rokiem, bez wiążącego prawa międzynarodowego, luka między możliwościami tych systemów a naszą zdolnością do zarządzania nimi się pogłębia – wyjaśnia.
Czytaj więcej
Czy naprawdę chcemy, aby sztuczna inteligencja decydowała o użyciu broni, która cechuje się ograniczoną precyzją, nie mówiąc już o broni nuklearnej?
Oddanie maszynom decyzji o ludzkim życiu to scenariusz, który już zaczyna się ziszczać. Jak zauważa Marta Stępniak, ekspertka Instytutu Spraw Obywatelskich, autonomiczne systemy broni (AWS) są od kilku lat testowane w warunkach bojowych. Pierwsze udokumentowane przypadki ich użycia miały miejsce w Libii w 2020 r., gdzie Turcja wykorzystała drony Kargu-2 dysponujące technologią rozpoznawania i przetwarzania obrazu.