Wśród gier wideo, które maszyna doskonale opanowała, są „Pong" i „Space Invaders". Algorytm opanował już 49 gier, w ponad połowie z nich nabył większej sprawności niż wytrawni gracze.

Algorytm to krok w kierunku programów komputerowych, które – podobnie jak ludzki mózg – będą w stanie wyłuskać użyteczne informacje spośród dużej ilości danych, np. automatycznego klasyfikowania zdjęć i rozpoznania na nich np. kota. Zdolność ta będzie kluczem do samodzielnego prowadzenia samochodów, które muszą rozpoznać otoczenie, lub maszyn do identyfikacji mowy i przekładania jej na obce języki w czasie rzeczywistym. Nad takimi programami pracuje od lat firma Google.

W 2014 roku kupiła firmę DeepMind z siedzibą w Londynie za 400 mln funtów.

Algorytm DeepMind to pierwszy system sztucznej inteligencji (AI), który potrafił się nauczyć różnych zadań na podstawie minimalnych informacji wyjściowych. Opis eksperymentów przynosi najnowsze wydanie magazynu „Nature".

– Do tej pory systemy samodzielnego uczenia się maszyn zostały wykorzystane tylko do rozwiązywania stosunkowo prostych zadań – powiedział dr Demis Hassabis, współzałożyciel i wiceprezes DeepMind, główny autor artykułu, który został opublikowany w „Nature". – My po raz pierwszy zastosowaliśmy algorytm do wykonania zadań, które są trudne nawet dla człowieka. Jedyne informacje, jakie dostarczyliśmy do systemu, to rozmieszczenie pikseli na ekranie i zadanie uzyskania wysokiego wyniku. Reszty system musiał się nauczyć sam.

To nie jest pierwszy raz, kiedy maszyna nauczyła się skomplikowanej gry. Komputer szachowy Deep Blue firmy IBM zasłynął w 1997 roku pokonaniem mistrza świata w szachach Garriego Kasparowa. Tamten system sztucznej inteligencji został jednak zaprogramowany przy wykorzystaniu instrukcji obsługi, która dała mu wiedzę potrzebną do osiągania sukcesów w  szachach. Podobnie było w przypadku ujawnionego niedawno algorytmu do gry w pokera, który jest skuteczniejszy od profesjonalnego gracza.

– Fakt, że masz system, który może się nauczyć wielu gier, jest imponujący – powiedział Nathan Sprague z James Madison University w Harrisonburgu w USA.

Jednak eksperymenty ze sztuczną inteligencją mogą też pomóc w zrozumieniu ludzkiego umysłu.

– Neurolodzy badają inteligencję i podejmowanie decyzji, a tu mamy bardzo klarowne laboratorium – wyjaśnia dr Hassabis, sam neurolog z wykształcenia.

– Gry są dla badaczy sztucznej inteligencji tym, czym muszki owocowe dla biologów – pozwalają sprawdzać założenia teoretyczne – powiedział Richard Sutton z kanadyjskiego University of Alberta w Edmonton. – Zrozumienie ludzkiego umysłu jest niezwykle trudnym zagadnieniem, ale gry pozwalają na rozbicie go na części, które można kolejno badać.

Analiza ta jest najnowszym osiągnięciem w dziedzinie „głębokiego uczenia się", które toruje drogę inteligentnym maszynom inspirowanym działaniem mózgu ludzkiego.

Algorytm bazuje m.in. na schemacie, według którego system decyzyjny mózgu korzysta z układu nagrody sterowanego za pomocą neuroprzekaźnika – dopaminy. Algorytm uczy się na podstawie błędów w działaniu. Próbuje, które komendy przynoszą największe korzyści: „iść w lewo", „iść w prawo" czy „ognia". Po spędzeniu kilku godzin nad każdą z gier algorytm ją opanowuje.