Wirtualny umysł dziecka

Maszyny coraz podobniejsze do ludzi. Stworzona przez informatyków wirtualna postać zdała test psychologiczny, który zwykle przedstawiany jest pięcioletnim dzieciom. Choć może się to wydawać niezbyt imponujące, dla programistów to wielki sukces

Publikacja: 13.03.2008 07:30

Wirtualny umysł dziecka

Foto: Rzeczpospolita

Jak sprawić, aby sterowane przez komputer postacie mogły udawać prawdziwych ludzi? Nie chodzi tu o podobieństwo fizyczne, ale o umiejętność komunikacji, zachowywanie się tak, jak zachowałby się prawdziwy człowiek. Zaprojektowane przez programistów wirtualne osoby inteligencją nie dorównują nawet małym dzieciom. Choć zasada ta ma zastosowanie we wszystkich programach, najlepiej podobne braki widać w grach wideo.

Pierwszy krok na drodze do stworzenia maszyny lepiej udającej człowieka postawili właśnie naukowcy z Politechniki Rensselaer w Stanach Zjednoczonych. Stworzyli oni postać (dla wygody reprezentowaną przez tzw. awatara – wizerunek osoby – w grze „Second Life”), która zdała specjalny tzw. test fałszywych przekonań. Ludzie zaczynają dawać sobie z nim radę w wieku czterech – pięciu lat.

Najczęściej test ten wykorzystywany jest do wykrywania i diagnozowania autyzmu. Ujawnia on niezdolność do pojmowania i odczytywania stanu umysłu drugiej osoby.

Test jest prosty – przeprowadza się go w obecności dwóch osób i badanego dziecka. Dziecko przygląda się, jak eksperymentator chowa, np. do szuflady, jakiś przedmiot. Następnie prowadzący badanie prosi drugą osobę o opuszczenie pomieszczenia i przekłada przedmiot w inne miejsce. Dziecko ma wskazać, w którym miejscu osoba, która opuściła pokój, będzie szukać przedmiotu.

Małe dzieci, dzieci autystyczne – i komputery – nie widzą różnicy między wiedzą innych a swoją własną. Dlatego wskażą szufladę, w której rzeczywiście znajduje się poszukiwany przedmiot. Ale starsze dzieci wiedzą, że osoba, która wyszła z pokoju, będzie szukać przedmiotu tam, gdzie go ostatni raz widziała.

Testowi fałszywych przekonań poddano program komputerowy opracowany przez Selmera Bringsjorda i Andrew Shillidaya. Reprezentowany jest on w grze „Second Life” przez robota lub 4-letnie dziecko. Nosi nazwę Eddie. W toku eksperymentu program miał odgadnąć, w której walizce – czerwonej lub zielonej – człowiek będzie szukał schowanego pistoletu.

Test fałszywych przekonań prowadzony w Internecie w grze sieciowej „Second Life”. Badaniu poddawany jest program mający tu postać robota.

Eddiemu ta sztuka się nie udawała, dopóki nie wyposażono go we fragment kodu, który uznawał, że inni nie wiedzą tego, czego nie widzą.

Według Bringsjorda, Eddie jest pierwszym programem komputerowym, który opanował elementy tzw. teorii umysłu. Jest to umiejętność wnioskowania o wiedzy innych osób. – Zastosowania tego pomysłu obejmują rozrywkę i gry, ale również edukację oraz bezpieczeństwo narodowe – twierdzi Bringsjord.Badania Politechniki Rensselaer wspiera m.in. komputerowy gigant IBM, a ich celem jest stworzenie środowiska, w którym ludzie będą mogli komunikować się z wirtualnymi postaciami sterowanymi przez komputery. Powstać ma nawet odpowiednik „holodeku” znanego z filmów science fiction „Star Trek”. Wykorzystany do tego zostanie najpotężniejszy na świecie system wirtualnej rzeczywistości, który uczelnia uruchomi w październiku.

Najszybciej z nowej umiejętności maszyn skorzystają gry komputerowe. – Dziś postacie w grach nie mają autonomii ani nie wiedzą, jak postępują ludzie – wyjaśnia Bringsjord magazynowi „New Scientist”. Przeciwnicy w grach będą dzięki temu inteligentniejsi. Jak obiecują amerykańscy naukowcy, kolejna wersja Eddiego będzie też potrafiła... kłamać.

Zdaniem Johna Lairda, specjalizującego się w konstruowaniu układów sztucznej inteligencji na Uniwersytecie Michigan, zaprogramowanie teorii umysłu wcale nie jest takie trudne. Laird podkreśla również, że wcześniej podobną umiejętność udało się wpoić robotowi Leonardo skonstruowanemu przez Cynthię Breazeal z MIT. Leonardo, jeden z najbardziej zaawansowanych robotów na świecie, nie tylko opanował podstawy teorii umysłu, ale nawet empatię. Reaguje on na mimikę rozmówcy, odpowiednio dostosowując swoją.

Jak sprawić, aby sterowane przez komputer postacie mogły udawać prawdziwych ludzi? Nie chodzi tu o podobieństwo fizyczne, ale o umiejętność komunikacji, zachowywanie się tak, jak zachowałby się prawdziwy człowiek. Zaprojektowane przez programistów wirtualne osoby inteligencją nie dorównują nawet małym dzieciom. Choć zasada ta ma zastosowanie we wszystkich programach, najlepiej podobne braki widać w grach wideo.

Pierwszy krok na drodze do stworzenia maszyny lepiej udającej człowieka postawili właśnie naukowcy z Politechniki Rensselaer w Stanach Zjednoczonych. Stworzyli oni postać (dla wygody reprezentowaną przez tzw. awatara – wizerunek osoby – w grze „Second Life”), która zdała specjalny tzw. test fałszywych przekonań. Ludzie zaczynają dawać sobie z nim radę w wieku czterech – pięciu lat.

Pozostało 80% artykułu
Materiał Promocyjny
Kod Innowacji - ruszył konkurs dla firm stawiających na nowe technologie w komunikacji z konsumentami
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Materiał Promocyjny
Polska na czele rewolucji technologii kwantowych
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska