System sterowania stworzony przez prof. Otmara Hilligesa oraz jego doktoranta Jie Songa spełnia podobną rolę jak dotykowe ekrany. Daje jednak więcej możliwości — i może być nawet stosowany w urządzeniach, które nie mają ekranów reagujących na nacisk palca. Ten sam pomysł można wykorzystać m.in. w komputerach.

W smartfonach (na razie to właśnie one służą do testów) działa to tak: w jednej dłoni trzymamy komórkę, a drugą wykonujemy gesty „za plecami" telefonu. W ten sposób ruchy palców może obserwować wbudowany aparat. Gesty są zbliżone do tych znanych z ekranów dotykowych. Rozsuwanie palców i „szczypanie" może zmieniać skalę mapy. Zrobienie „pistoletu" z palca wskazującego i kciuka uruchamia jakąś akcję (na przykład przejście do przeglądarki internetowej). Naciśnięcie „spustu" może zaś zmieniać zakładki.

Pomysł został przedstawiony przez inżynierów z Politechniki Federalnej w Zurychu (ETH Zurich) podczas sympozjum poświęconego projektom systemów obsługi urządzeń elektronicznych UIST w Honolulu na Hawajach. Jak podkreślają twórcy jego największą zaletą jest prostota i niewielkie wymagania sprzętowe.

— Większość podobnych algorytmów analizy obrazu wymaga sporej mocy obliczeniowej, podczas gdy naszemu wystarczy niewielka pamięć i niezbyt mocny procesor, co sprawia, że jest idealny dla smartfonów — zachęca prof. Hilliges. — Niewielkie wymagania oznaczają, że nada się na przykład do inteligentnych zegarów (smartwatches) oraz okularów z wyświetlaczami.

Czy nowy sposób obsługi urządzeń mobilnych się przyjmie? Szwajcarzy przypominają, że użytkownicy komputerów i konsoli gier również musieli przyzwyczaić się do nowego środowiska. — Na przykład gry kontroluje się teraz ruchami ciała. A opanowanie ekranów dotykowych także zajęło sporo czasu, zanim zmieniło tak poważnie nasze życie — uważa prof. Hilliges. — Te gesty do aparatu nie zastąpią ekranów dotykowych, ale w przyszłości podobny system, lub jego część, trafi na rynek masowy.