Sztuczny rozum coraz groźniejszy

Inteligentne systemy mogą być wykorzystane do aktów terrorystycznych i politycznych manipulacji – twierdzą naukowcy.

Aktualizacja: 03.03.2018 13:18 Publikacja: 02.03.2018 23:01

Czy sztuczna inteligencja może przynieść wielkie szkody?

Czy sztuczna inteligencja może przynieść wielkie szkody?

Foto: Stock adobe

Sztuczna inteligencja – SI (ang. artificial intelligence, AI) to dziedzina nauki zajmujaca się robotyką i tworzeniem niebiologicznych sieci neuronowych oraz sztucznego życia. To również dział informatyki, który zajmuje się modelami zachowań inteligentnych oraz programami komputerowymi symulującymi te zachowania. SI bywa także definiowana jako dział informatyki rozwiązujący problemy, które nie poddają się skutecznie ujmowaniu w formie algorytmów. Termin wymyślił John McCarthy w 1956 roku.

Malarstwo i poezja

W ostatnich latach nastąpił kolosalny postęp w rozwoju SI w sferze postrzegania, w rozpoznawaniu głosu, twarzy, sylwetki, w analizie obrazu i różnych danych poznawczych.

Na przykład francuscy informatycy Pierre Fautrel, Gauthier Vernier i Hugo Caselles-Dupre, pracują nad programem komputerowym malującym obrazy. Zeskanowali wiele portretów powstałych od XV do XIX wieku, a stworzona przez nich sztuczna inteligencja, wkomponowana w program komputerowy, przyswoiła sobie wskazówki na temat kompozycji obrazów, ich stylu graficznego i palety barw. Na bazie tej wiedzy stworzyła autorski portret mężczyzny w peruce. Nie jest on kompilacją zapamiętanych informacji, lecz kreacją, prawdziwym dziełem.

Także specjalistom z Microsoftu i naukowcom holenderskim z Uniwersytetu w Delft udało się stworzyć obrazy przy pomocy „samodzielnie myślącego” programu „Rembrandt”. Także Google wystawiło na aukcji w San Francisco 30 płócien zrealizowanych przez własny program sztucznej inteligencji Deepdream. Za obrazy nabywcy płacili od 2 tys. do 8 tys. dolarów. Zyski zostały przekazane na cele charytatywne. Z kolei program Google Brain „przeczytał” ponad 11 tys. tomów poezji, po czym ułożył własny poemat. Ten sam program napisał scenariusz filmu krótkometrażowego, zrealizowany później przez filmowców.

Już nie science fiction

Sztuczna inteligencja może jednak stanowić zagrożenie dla bezpieczeństwa publicznego. Niektórzy naukowcy ostrzegają, że w ciągu najbliższych dziesięciu lat znacząco rozszerzy się zakres stosowania inteligentnych dronów bojowych i autonomicznych robotów w celach terrorystycznych. Łatwiejsze stanie się manipulowanie wyborami poprzez portale społecznościowe i systemy automatycznego liczenia głosów.

Stustronicowy raport poświęcony tym zagadnieniom powstał w ramach współpracy dwóch uniwersytetów brytyjskich – Cambridge i Oxford, oraz dwóch amerykańskich – Yale i Stanforda, a także przy udziale Center for a New American Security i Electronic Frontier Foundation.

„Sądzimy, że ataki, jakie będą podejmowane z coraz szerszym wykorzystaniem SI, będą wyjątkowo skuteczne, precyzyjnie skierowane i trudne do przypisania konkretnym osobom czy organizacjom” – piszą autorzy raportu. Kreślą oni hipotetyczne scenariusze diabolicznego zastosowania sztucznej inteligencji. Uważają, że terroryści mogą modyfikować systemy już dostępne w handlu (zaawansowane drony i pojazdy autonomiczne) do powodowania kolizji, katastrof, wybuchów i pożarów.

Eksperci kreślą wizję robota pozornie zaprogramowanego do sprzątania, ale w rzeczywistości „wybuchowego”, który wślizguje się między prawdziwe sprzątające automaty w berlińskim Ministerstwie Finansów, i któregoś dnia, gdy już rozpozna teren i osobę kierującą departamentem, zbliży się do celu i eksploduje, zabijając go.

– Największe zagrożenie, mimo że może się obecnie wydawać najmniej prawdopodobne, dotyczy polityki. Mieliśmy już okazję przekonać się o tym w Stanach Zjednoczonych, w jaki sposób i w jakim zakresie posłużono się technologią do próby wypaczenia demokratycznych wyborów. Takie działania mogą wpłynąć na wyniki konkretnej elekcji i w ogóle zdestabilizować politykę, co w konsekwencji może doprowadzić do wojny – zwraca uwagę Sean Eigeartaigh, dyrektor Centre for the Study of Existential Risk Uniwersytetu w Cambridge.

Sztuczna inteligencja umożliwi realizację fałszywych filmów wideo, bardzo realistycznych, przeznaczonych do dyskredytowania ważnych osób publicznych.

Nie jest za późno

Raport nie jest pierwszym przejawem niepokoju uczonych w sprawie potencjalnych zastosowań SI. W 2014 roku słynny astrofizyk Stephen Hawking ostrzegał przed ryzykiem, jakie może zagrozić ludzkości, jeśli się okaże, że sztuczna inteligencja przewyższy ludzką, będzie od niej bardziej operatywna, szybciej działająca i sprawniejsza pod każdym względem.

– Na razie wciąż jeszcze istnieje przepaść między zaawansowanymi badaniami naukowymi nad sztuczną inteligencją a jej możliwymi obecnie zastosowaniami, dlatego jest jeszcze czas, aby reagować – podkreśla dr Miles Brundage kierujący Future of Humanity Institute Uniwersytetu w Oksfordzie.

Sztuczna inteligencja – SI (ang. artificial intelligence, AI) to dziedzina nauki zajmujaca się robotyką i tworzeniem niebiologicznych sieci neuronowych oraz sztucznego życia. To również dział informatyki, który zajmuje się modelami zachowań inteligentnych oraz programami komputerowymi symulującymi te zachowania. SI bywa także definiowana jako dział informatyki rozwiązujący problemy, które nie poddają się skutecznie ujmowaniu w formie algorytmów. Termin wymyślił John McCarthy w 1956 roku.

Malarstwo i poezja

Pozostało 90% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Materiał partnera
Technologie kwantowe: nauka tworzy szanse dla gospodarki
Materiał Promocyjny
Wykup samochodu z leasingu – co warto wiedzieć?
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska
Materiał Promocyjny
Dell Technologies: nie ma branży czy przedsiębiorstwa, które może funkcjonować bez nowoczesnych technologii