fbTrack
REKLAMA
REKLAMA

Plus Minus

Kiedy robot idzie do wojska

fot. The National Guard
Flickr
Ze sztuczną inteligencją jest jak z energią jądrową. Można użyć jej zarówno dla dobra ludzkości, jak i jej zagłady. Eksperci ostrzegają przed wykorzystaniem myślących maszyn do prowadzenia wojen.

Nowy rosyjski czołg podstawowy T-14 Armata sprawia wrażenie, jakby był wycięty z najnowszej wersji gry komputerowej. Ale to nie wytwór fantazji, tylko dzieło rosyjskich inżynierów pracujących pod kierunkiem Andrieja Terlikowa.

– Pokładowy system komputerowy wykonuje większość funkcji technicznych, co pozwala załodze skupić się na kluczowych zadaniach – tłumaczył reporterowi AFP Ilja Demczenko, zastępca głównego konstruktora czołgu. – Dla załogi będzie to jak zabawa w grę wideo, w zasadzie tylko podejmowanie decyzji.

Pojazd dysponuje zdalnie sterowaną wieżą, systemem komputerowym, najnowocześniejszymi systemami aktywnej obrony. Ma służyć niebezpiecznej konfrontacji Rosji z Zachodem i świadczyć o woli modernizacji rosyjskiego przemysłu wojskowego. Pokazany po raz pierwszy na paradzie z okazji Dnia Zwycięstwa w Moskwie 9 maja zepsuł się i musiał być odholowany.

Ale największe zaniepokojenie ekspertów bezpieczeństwa międzynarodowego wzbudziło nie tyle samo pojawienie się nowoczesnej broni, ile zapowiedź konstruktorów, że czołg przystosowany jest do łatwego przekształcenia w pełni zautomatyzowany wóz bojowy.

Trzecia rewolucja

Uzbrojone drony rozpowszechniły się na polach bitew w ciągu ostatnich kilku lat. Owszem, wykorzystywane są do zabijania ludzi, ale wszystkie te maszyny są tylko wykonawcami ludzkich decyzji. Pilot sterujący samolotem siedzi w pomieszczeniu oddalonym o tysiące kilometrów od atakującej maszyny i to on naciska guziki, które powodują wystrzeliwanie pocisków.

To jednak może się bardzo szybko zmienić. Sztuczna inteligencja może być wykorzystana do podejmowania decyzji, co dzisiaj na ludziach. Prace nad jej rozwojem doprowadziły już do powstania urządzeń, które są zdolne do rozpoznawania terenu, tworzenia map, sterowania pracą urządzeń, takich jak samochody czy samoloty, a nawet planowania strategicznego.

Lada moment mogą pojawić się armie uzbrojonych robotów, które zamiast ludzi będą wychodzić na pole bitwy. Nad takimi systemami obronnymi, zwanymi ogólnie zabójczymi autonomicznymi systemami uzbrojenia, z angielskiego LAWS – od ‚„lethal autonomous weapons systems" – pracują eksperci wojskowi.

– Technologie osiągnęły punkt, w którym wdrożenie takich systemów jest praktycznie możliwe w ciągu roku, a nie lat – powiedział prof. Stuart Russell, specjalista informatyk z Uniwersytetu Kalifornijskiego w Berkeley. – Stawka jest wysoka: LAWS zostały już opisane przez specjalistów od obrony narodowej jako trzecia rewolucja w walce. Poprzednie to wynalezienie prochu i broni jądrowej. Autonomiczne systemy uzbrojenia wybierają cele bez interwencji człowieka; stają się zabójcze, gdy cele te obejmują ludzi.

Co najmniej dwa projekty (o innych na razie nie wiadomo) prowadzone przez Amerykańską Agencję Zaawansowanych Projektów Obronnych (DARPA) są zabójczymi autonomicznymi systemami uzbrojenia. To Fast Lightweight Autonomy (FLA) i Collaborative Operations in Denied Environment (CODE). Projekt FLA obejmuje zaprogramowanie małego wiropłata, który będzie mógł manewrować samodzielnie bez żadnej pomocy na obszarach miejskich i wewnątrz budynków. CODE z kolei obejmuje skonstruowanie autonomicznych pojazdów powietrznych wykonujących wszystkie etapy misji bojowych od poszukiwania, śledzenia, namierzania celu, aż po atak. System przeznaczony jest do działania w sytuacji, kiedy zagłuszanie sygnału radiowego sprawia, że łączność z dowodzącymi akcją ludźmi jest niemożliwa. Inne kraje prawdopodobnie prowadzą tajne projekty, których cel jest podobny.

W międzynarodowym prawie humanitarnym – które reguluje sposób prowadzenia ataku na ludzi w czasie wojny – nie ma szczegółowych przepisów dla systemów autonomicznych. Ale według ekspertów i w takim przypadku może być stosowane. Konwencja genewska z 1949 r. stanowi, że każdy atak w czasie działań wojennych musi spełniać trzy kryteria: konieczność wojskową, odróżniania wojskowych od niebiorących udziału w konflikcie i zachowania proporcji pomiędzy wartością celu militarnego a potencjalnymi szkodami ubocznymi. Istotna jest również klauzula Martensa dodana w 1907 roku zabraniająca używania broni, która narusza „zasadę człowieczeństwa i nakazów sumienia". Te subiektywne oceny w zasadzie są niemożliwe do spełnienia przez systemy sztucznej inteligencji.

Nowa treść starych konfliktów

Pół biedy, gdyby roboty walczyłyby z robotami. Ale przy dzisiejszych różnicach cywilizacyjnych między państwami jest to niemożliwe.

W ramach prac nad konwencją Narodów Zjednoczonych w sprawie niektórych broni konwencjonalnych (CCW) w kwietniu w Genewie w Szwajcarii odbyły się spotkania. To inicjatywa zmierzająca do zawarcia międzynarodowego traktatu zakazującego lub przynajmniej ograniczającego autonomiczne systemy uzbrojenia. Precedensem dla takiego traktatu byłby zapewne zakaz używania oślepiającej broni laserowej, który został uzgodniony w 1995 roku.

Ale do traktatu zakazującego użycia robotów z własną inteligencją na polu walki jeszcze daleko. Fakt, że ONZ zgodziła się na omawianie tej kwestii w listopadzie ubiegłego roku i w kwietniu bieżącego, świadczy o tym, że porozumienie w tej sprawie jest możliwe.

Może się jednak zdarzyć – tu istotna będzie atmosfera międzynarodowa w najbliższych kilku latach – że zakaz użycia broni sterowanej przez sztuczną inteligencję nie powstanie, a pozostawienie status quo doprowadzi nieuchronnie do kolejnego etapu wyścigu zbrojeń.

– Użycie autonomicznej broni niesie zupełnie nową treść dla prawa konfliktów zbrojnych – zbioru norm zaakceptowanych przez społeczność międzynarodową – tłumaczył podczas jednego z kwietniowych spotkań w Genewie prof. Peter Asaro z Centrum Internetu i Społeczeństwa Uniwersytetu Stanforda. – Zgoda co do tego, że nie do przyjęcia jest, aby roboty mogły zabijać bez nadzoru człowieka, jest coraz powszechniejsza.

Podczas kwietniowych spotkań kilka krajów wezwało do wprowadzenia natychmiastowego międzynarodowego zakazu użycia autonomicznej broni. Budowie automatów do zabijania ludzi zdecydowanie sprzeciwiły się: Japonia, Niemcy i Chorwacja. Niemcy oświadczyły, że „nigdy nie zaakceptują, aby decyzja o życiu i śmierci była podejmowana wyłącznie przez autonomiczny system".

Niemcy dobrze pamiętają automatyczne systemy „ochrony" granic stosowane przez NRD – automatyczne karabiny połączone z czujnikami ruchu na granicy strzelały do wszystkiego, co się ruszało w strefie zakazanej, niezależnie od tego, czy był to człowiek czy zwierzę.

Japonia natomiast zadeklarowała, że „nie ma żadnego planu rozwoju robotów, które niezwiązane byłyby z ludźmi, a które mogłyby być zdolne do popełnienia morderstwa".

– Niektóre rządy, takie jak Korei Południowej, które wcześniej nie wypowiadały się zdecydowanie przeciw takiej broni, dziś zmieniają zdanie – uważa prof. Asaro. – Myślę, iż w kwestii, że w najbardziej ekstremalnej formie nie można po prostu używać uzbrojonych robotów bez żadnego nadzoru człowieka, panuje konsensus. Ale jest jeszcze różnica zdań i do zrobienia jest bardzo wiele, choćby w sprawach prawnych. Moim zdaniem człowiek powinien mieć znaczącą kontrolę nad atakiem zarówno jego inicjowaniem, jak i odwoływaniem.

Stany Zjednoczone, Wielka Brytania i Izrael – trzy kraje niewątpliwie najbardziej zaangażowane w rozwijanie technologii autonomicznych systemów bojowych – sugerowały podczas kwietniowych spotkań, że traktat jest niepotrzebny, ponieważ wszystkie systemy broni, nad którymi pracują, są zgodne z prawem międzynarodowym.

Prawie wszystkie państwa będące stroną konwencji CCW zgadzają się z potrzebą znaczącej kontroli broni przez człowieka. Ale w kwietniowej dyskusji definicja „znaczącej kontroli ludzkiej" – czyli jaki rodzaj zaangażowania człowieka jest niezbędny w procesie zabijania żołnierzy na polu bitwy, okazała się bardzo trudna do zdefiniowania.

Ludzka maszyna

Być może kluczem do rozwiązania problemu jest zbudowanie robota, który myślałby i działał jak człowiek. Nad taką maszyną od lat pracuje zespół, którym kieruje prof. Manuela Veloso, specjalistka informatyk z Carnegie Mellon University.

– Ludzie bez problemów integrują postrzeganie, poznanie i działanie. Wykorzystujemy nasze „czujniki" do oceny sytuacji, mózg do myślenia i wyboru sposobu działania, a ciała do wykonywania czynności – tłumaczy prof. Veloso. – Mój zespół stara się budować roboty, które są w stanie robić to samo – maszyny działające z pomocą skomplikowanych algorytmów i siłowników, które kontrolują mechanizmy. Zamiast zmysłów mają czujniki – mikrofony kamery, skanery. Ale autonomiczne roboty i ludzie różnią się znacznie swoimi umiejętnościami. Roboty zawsze będą miały ograniczenia poznawcze. Nie będą w stanie dostrzec pełnego obrazu, rozpoznać lub manipulować każdym przedmiotem, zrozumieć wszystkie wypowiedzi ustne i pisemne lub poruszać się w każdym terenie. Myślę, że roboty mogą jedynie uzupełniać ludzi, a nie ich zastępować.

Przez ostatnie trzy lata zespół prof. Veloso badał, jak roboty i ludzie mogą razem pracować. Badacze zbudowali roboty CoBot. Mają koła, które pozwalają na omijanie przeszkód, system kamer i lidary, komputery do przetwarzania danych, ekrany do komunikacji i kosze do przewozu różnych rzeczy.

– Na początku zdaliśmy sobie sprawę, jak trudne jest dostosowanie robotów do rzeczywistego środowiska – wspomina prof. Veloso. CoBot nie rozpoznawał każdego obiektu, jaki napotykał, brak dłoni sprawiał, że otwieranie drzwi było wyzwaniem. Choć był w stanie używać mowy do komunikacji, nie mógł zrozumieć sensu wszystkich wypowiedzianych słów.

Ale badacze nie zrażali się i wyposażyli robota w umiejętność pytania ludzi o pomoc lub poszukiwania jej w internecie. CoBoty nauczyły się oprowadzać gości po budynku, przy okazji zbierać po drodze przydatne informacje. Maszyny sporządzały dokładne mapy miejsc, mierzyły ich temperaturę, wilgotność, hałas i natężenie światła oraz siłę sygnału WiFi. Badacze nauczyli roboty otwierania drzwi, naciskania guzików w windzie, podnoszenia przedmiotów i uczestniczenia w rozmowie.

– Nadal istnieją przeszkody, które trzeba pokonać, by umożliwić bezpieczne współistnienie robotom i ludziom – przekonuje prof. Veloso. – Zespół bada, jak ludzie i roboty mogą się łatwiej komunikować za pomocą języka mówionego i gestów. Interesuje nas również, jak wygląd robota wpływa na ludzi, w szczególności, jak reagują oni na lampki kontrolne ujawniające wewnętrzny stan maszyny. Mimo iż mamy jeszcze wiele do zrobienia, uważam, że przyszłość będzie pozytywna. Ludzie i roboty mogą pomóc sobie wzajemnie i się uzupełniać.

Ale czy na pewno na polu walki?

Winne media

Dyskusja na temat wykorzystania sztucznej inteligencji na wojnie to zaledwie część możliwości, jakie daje sztuczna inteligencja. Debata na temat roli robotów we współczesnym świecie i ich przyszłości trwa już kilka lat.

Dr Sabine Hauert – wykładowca robotyki na brytyjskim Uniwersytecie Bristolu – uważa, że strach przed autonomicznymi systemami obronnymi wiąże się z rosnącymi obawami o przyszłość sztucznej inteligencji w ogóle. Jej zdaniem do niechętnego stosunku do niej przyczyniły się media, które z przesadą podkreślały fakt, że sztuczna inteligencja stanowi egzystencjalne zagrożenie dla ludzkości. Ludzie się zastanawiają, czy roboty zajmą ich miejsca pracy. Stąd nacisk na to, aby przepisy prawa pozwalały na utrzymanie technologii pod kontrolą.

– Moi koledzy i ja na wielu spotkaniach towarzyskich tłumaczyliśmy, że roboty to nie zło wcielone, ale mogą pomóc osobom starszym, poprawić opiekę zdrowotną – tłumaczy Sabine Hauert. – Dzięki robotom praca będzie bezpieczniejsza i bardziej wydajna, nie mówiąc już o możliwości dotarcia do głębin oceanów czy miejsc niebezpiecznych. Eksperci muszą stać się posłańcami. Za pośrednictwem mediów społecznościowych naukowcy powinni stale prowadzić rozważną dyskusję.

Badaczka podkreśla, że ludzie, którzy pracują nad budową robotów, powinni wziąć na siebie odpowiedzialność za dyskusję z prominentnymi komentatorami rzeczywistości, choćby takimi jak prof. Stephen Hawking czy Elon Musk, którzy ostrzegali przed rozwijaniem sztucznej inteligencji. A temat powinien być obecny na najważniejszych spotkaniach międzynarodowych, choćby takich jak Forum Ekonomiczne w Davos.

– Sztuczna inteligencja ma zdumiewający potencjał przyspieszenia odkryć naukowych w biologii, medycynie i w przekształceniu opieki zdrowotnej – dodaje prof. Russ Altman, specjalista bioinżynierii, genetyki i informatyki z Uniwersytetu Stanforda. – Sztuczna inteligencja pomaga rozwijać kilka nowych dziedzin, jak: genomika, proteomika (gałąź nauki zajmująca się badaniem białek), metabolomika (zajmująca się badaniem produktów metabolizmu) oraz elektroniczne karty zdrowia i wszelkiego rodzaju czujniki wykrywające objawy chorób.

Źródło: Plus Minus
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA
REKLAMA
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
REKLAMA
REKLAMA