To nie dźwięk i grafika są barierą dla wirtualnej rzeczywistości. Znacznie większym problemem jest sterowanie komputerową postacią w taki sposób, aby dokładnie oddać intencje człowieka. Używając dżojstika, sterownika konsoli gier czy klawiatury, użytkownicy są ograniczani liczbą kombinacji przycisków. A sposób kierowania postacią ma ogromne znaczenie dla iluzji przebywania w wirtualnej rzeczywistości.
Teoretycznie problem został już rozwiązany. Specjaliści z Uniwersytetu Stanowego Iowa zbudowali najnowocześniejszy obecnie pokój do wirtualnej rzeczywistości, wyposażony w nowatorski system śledzenia ruchu człowieka. C6 – bo tak nazywa się to laboratorium – może wyświetlać obraz na wszystkich ścianach, podłodze i suficie. Dane przetwarzane są przez 96 komputerów, za obraz odpowiedzialne są 24 projektory wysokiej rozdzielczości.
Za laboratorium C6 płaci m.in. biuro badań naukowych U. S. Air Force, które wykorzystuje wirtualną rzeczywistość do testowania projektów bezzałogowych pojazdów latających. Na potrzeby treningu żołnierzy opracowano też ultradźwiękowy system śledzenia ruchu ludzi wykorzystujący m.in. rękawice pozwalające manipulować wirtualnymi obiektami.
Nie każdy może jednak liczyć na wsparcie amerykańskiego lotnictwa, a wykorzystywane w C6 rozwiązania kosztują ok. 5 mln dolarów. Dlatego inżynierowie swoje najlepsze pomysły sprawdzają w... grach komputerowych. Dokładnie takich, w jakie może grać każdy posiadacz peceta.
Na pierwszy ogień poszła jedna z najpopularniejszych gier internetowych „Second Life”. To z myślą o niej system kierowania awatarem (czyli wirtualną postacią reprezentującą gracza) stworzyli naukowcy z Uniwersytetu Tokijskiego. System wykorzystuje zwykłą kamerę wideo przypiętą do nogi użytkownika oraz kolorową matę. Gdy człowiek na macie chodzi, kuca czy skacze – awatar na ekranie robi to samo. – Ta technologia umożliwia przenoszenie działań ze świata rzeczywistego do wirtualnego – mówi Michitaka Hirose, jeden z pomysłodawców systemu.