Prenumerata 2018 ju˜ż w sprzedża˜y - SPRAWD˜!

Nowe technologie

Sztuczna inteligencja robi się agresywna

AFP
Maszyna sama nauczyła się, że aby przetrwać i zwyciężyć, trzeba unieszkodliwić konkurenta. Na razie tylko w grze.

To scenariusz jak z filmu science fiction. Samouczšcy się system sztucznej inteligencji Google'a uznał, że w trudnej sytuacji, gdy zachodzi ryzyko przegranej, najlepszym rozwišzaniem jest wyeliminowanie oponenta.

System Deep Mind – ten sam, który wygrał z ludŸmi w go – potrafi sam opracowywać strategie wygrywajšce. Ludzie podsuwajš mu tylko zasady gry, a algorytm sztucznej inteligencji (AI) samodzielnie obmyœla plan. Tak właœnie było w przypadku prostej gry komputerowej polegajšcej na zbieraniu „jabłek" na ekranie. Zmierzyło się ze sobš dwóch graczy – obaj byli sterowani przez Deep Mind. Pracownicy Google'a pozwolili im przeprowadzić 40 mln rozgrywek.

Okazało się, że gdy iloœć zasobów („jabłek") jest wystarczajšca, algorytmy zajmujš się po prostu ich zbieraniem, nie zwracajšc uwagi na konkurenta. Sytuacja zmieniła się jednak, gdy zasoby zaczęły być trudniej dostępne i trzeba było o nie konkurować.

Jeden z graczy uznał, że najlepszš strategiš będzie unieszkodliwienie konkurenta. Gra ma wbudowanš funkcję strzelania z lasera, który na kilka chwil paraliżuje dwukrotnie trafionego przeciwnika. Strzelajšcy ma wówczas czas na zbieranie punktów. Komputer sam się nauczył, jak używać lasera, aby zapewnić sobie przewagę. Po pewnym czasie algorytmy po prostu zaczęły do siebie strzelać, nie przejmujšc się jabłkami.

Inżynierowie podkreœlajš, że bez agresywnego zachowania obaj gracze (wcielenia Deep Mind) zebraliby podobnš liczbę „jabłek" i mecz zakończyłby się remisem. I tak to właœnie działało, gdy grały ze sobš algorytmy prostsze, o niższej inteligencji. Gdy jednak programom udostępniono większe zasoby komputera, nauczyły się agresywnego zachowania. Im inteligentniejszy stawał się system, tym szybciej uznawał, że najlepsze będzie naciœnięcie spustu.

Naukowcy postanowili „nauczyć" Deep Mind, że ostre konkurowanie o zasoby nie zawsze jest najlepszym rozwišzaniem, że niekiedy przydaje się współpraca. Stworzyli drugš grę, w której maszyny wcielały się w role dwóch wilków i ich ofiary. Nie współpracujšc ze sobš, konkurencyjne algorytmy-wilki mogły nie upolować ofiary – i przegrać. Kooperacja wprawdzie nie wyłaniała zwycięzcy, ale też zmniejszała ryzyko porażki.

– Ten model pokazuje, że niektóre aspekty ludzkiego zachowania sš produktem działania œrodowiska i uczenia się – mówił magazynowi „Wired" jeden z programistów Joel Z Leibo.

Co to oznacza dla nas? Przed nieodpowiedzialnym rozwojem systemów sztucznej inteligencji ostrzegał m.in. Stephen Hawking. Słynny naukowiec w paŸdzierniku ubiegłego roku przypominał, że „spędzamy wiele czasu, studiujšc historię, która – mówišc szczerze – jest głównie historiš głupoty, zamiast zastanawiać się nad przyszłoœciš inteligencji". Sparaliżowany, poruszajšcy się na wózku Hawking obawia się, że myœlšce maszyny posłużš do stworzenia jeszcze groŸniejszej broni i do jeszcze większego wykorzystywania jednych ludzi przez drugich.

Jego zdaniem pojawienie się pełnej sztucznej inteligencji będzie oznaczało koniec rasy ludzkiej.

– Nie możemy przewidzieć, co można będzie osišgnšć, gdy nasze mózgi wzmocnimy systemami AI – przyznał jednak Hawking. Podobnie uważa miliarder Elon Musk, współzałożyciel OpenAI – konsorcjum, które chce odpowiedzialnych badań nad myœlšcymi maszynami.

– Trudno nawet sobie wyobrazić, w jak wielkim stopniu sztuczna inteligencja może się przyczynić do dobrobytu społeczeństwa – mówił Musk. – Ale równie trudno przewidzieć rozmiar zniszczeń, jeœli ktoœ chciałby jš zbudować lub użyć jej w sposób niewłaœciwy.

Systemy eksperckie i uczšce się programy komputerowe stajš się coraz istotniejszš częœciš naszego życia. Majš zastosowanie na giełdzie, w bankach, zakładach przemysłowych, stawiajš diagnozy, dobierajš leczenie, kierujš samochodami, podpowiadajš nam przy zakupach. Œwiadomoœć, że w pewnych warunkach systemy AI mogš opracować nowš agresywnš strategię, by osišgnšć cel, jest zaskakujšca. Nie chodzi wcale o scenariusz z „Terminatora".

– WyobraŸmy sobie, że jeden system sztucznej inteligencji steruje sygnalizatorem œwietlnym na skrzyżowaniu i chce spowolnić ruch, a drugi system AI kieruje samochodem, który chce cię jak najszybciej dowieŸć na miejsce – podpowiada Leibo. – Może lepiej sprawdzić ich zachowanie na modelu?

—na podst. „Wired"

ródło: Rzeczpospolita

WIDEO KOMENTARZ

REDAKCJA POLECA

NAJNOWSZE Z RP.PL