Czy maszyny będą odczytywać emocje

Aplikacja w smartfonie rozpozna, kiedy stajesz się zniecierpliwiony. A telewizor zmieni kanał, gdy kamera zauważy, że się nudzisz - piszePiotr Kościelniak.

Publikacja: 05.02.2014 08:16

Radość, zaskoczenie i gniew – na podstawie obserwacji mimiki komputer buduje obraz stanu emocjonalne

Radość, zaskoczenie i gniew – na podstawie obserwacji mimiki komputer buduje obraz stanu emocjonalnego człowieka

Foto: Emotient

Fantastyka? Nic podobnego. Te funkcje można zrealizować już dziś. Wystarczy zainstalować gotowe już aplikacje w telefonie albo uruchomić oprogramowanie w komputerze. Z bardziej wyrafinowanych wersji korzystają od pewnego czasu centra telefonicznej obsługi klienta oraz największe korporacje.

Odczytywanie mowy ciała to coś, z czym dotąd maszyny nie radziły sobie najlepiej. Nawet najbardziej zaawansowane systemy rozpoznawania mowy odczytują po prostu mowę. I nic więcej. Zmiana intonacji nie sprawi, że program przypisze naszym słowom inne znaczenie. Ludzie to potrafią, maszyny dopiero się tego uczą. Wykorzystują mikrofony i kamery, żeby wiedzieć o nas jeszcze więcej.

Idź do domu.? Jesteś zmęczony

Jak to działa, może przekonać się już dziś każdy posiadacz iPhone'a. Darmowa aplikacja Moodies określi, jaki nastrój ma użytkownik – czy jest zadowolony, szczęśliwy, czy może przestraszony i spięty. Wystarczy, że przez 20 sekund posłucha jego głosu.

To popularna wersja systemu firmy Beyond Verbal opracowanego specjalne dla call centers. W uproszczeniu – program podsłuchuje, nie co, ale jak mówi klient dzwoniący do biura obsługi. Jeżeli wykryje złość i agresję, operator, który stara się rozwiązać problem, zostanie ostrzeżony i przekieruje rozmówcę np. do pomocy technicznej. Dobry nastrój i zadowolenie pozwolą przekazać telefon na przykład do działu sprzedaży. W końcu zadowolonemu klientowi łatwiej sprzedać kolejną rzecz.

O efektywności działania Moodies przekonał się – zupełnie niechcący – Dan Emodi, szef marketingu firmy, podczas styczniowych targów CES 2014 w Las Vegas. Musiał prowadzić na stoisku Beyond Verbal kilka prezentacji dziennie – oczywiście „po amerykańsku", z entuzjazmem. Podczas kolejnej prezentacji aplikacja wyświetliła „diagnozę". „Jesteś zmęczony i samotny" – orzekł smartfon.

– Zrozumiałem, że problemem nie jest nasza aplikacja, tylko ja. Byłem wykończony – mówi Emodi.

Ukryta kamera

Jeszcze więcej możliwości dają systemy opierające się na analizie mimiki twarzy. Są one wykorzystywane głównie w przemyśle reklamowym. Korzystają z takich rozwiązań firmy Procter & Gamble, PepsiCo czy Unilever.

Jaką mają zaletę? „Prawdziwe" emocje malują się na twarzy tylko przez ułamek sekundy. Później zaczynamy nimi sterować – niekoniecznie świadomie: na przykład aby sprawić przyjemność obserwatorowi lub rozmówcy. Komputer potrafi odczytać pierwszą, najbardziej autentyczną reakcję.

– Ta pierwsza, nie do końca świadoma emocja przemyka przez naszą twarz błyskawicznie. A nie zawsze jest to uczucie, które chcielibyśmy odkryć – mówi „New York Timesowi" Ginger McCall z Electronic Privacy Information Center (EPIC).

Analiza poklatkowa umożliwia rozpoznawanie takich emocji. Systemy tego rodzaju mają m.in. firmy Emotient czy Affectiva. Ich systemy – Facet oraz Affdex są już dostępne na rynku.

Affdex został pierwotnie skonstruowany jako pomoc dla osób... autystycznych. Nie potrafią one m.in. prawidłowo rozpoznawać emocji, odczytywać ich z mowy ciała innych ludzi. Oprogramowanie miało być swego rodzaju „protezą" umożliwiającą im lepsze funkcjonowanie w społeczeństwie. Okazało się jednak równie przydatne dla marketingowców.

Równanie uczuć

Jak to działa? System Facet to dzieło naukowców z Machine Perception Lab Uniwersytetu Kalifornijskiego w San Diego. Rozpoznaje 44 wyrazy twarzy, którym przyporządkowane są emocje. Sprzężona z kamerą aplikacja mierzy ich „intensywność" i stawia diagnozę. Korzystają z niej największe firmy z listy Fortune 500 – chwalą się autorzy.

Naukowe podstawy ma również Moodies firmy Beyond Verbal. Bazuje na teorii opracowanej przez naukowców Uniwersytetu Yeshiva, którzy podzielili emocje na osiem typów. Ich sumowanie pozwala uzyskać bardziej złożone odczucia. Na przykład – rozczarowanie równa się zaskoczenie plus smutek. Albo niepewność to suma oczekiwania i strachu. W ten sposób – teoretycznie – wystarczy zidentyfikować w głosie mówiącego podstawowe uczucia, a ich mieszanka powie nam wszystko o stanie emocjonalnym człowieka.

masz pytanie, wyślij e-mail do autora

p.koscielniak@rp.pl

Fantastyka? Nic podobnego. Te funkcje można zrealizować już dziś. Wystarczy zainstalować gotowe już aplikacje w telefonie albo uruchomić oprogramowanie w komputerze. Z bardziej wyrafinowanych wersji korzystają od pewnego czasu centra telefonicznej obsługi klienta oraz największe korporacje.

Odczytywanie mowy ciała to coś, z czym dotąd maszyny nie radziły sobie najlepiej. Nawet najbardziej zaawansowane systemy rozpoznawania mowy odczytują po prostu mowę. I nic więcej. Zmiana intonacji nie sprawi, że program przypisze naszym słowom inne znaczenie. Ludzie to potrafią, maszyny dopiero się tego uczą. Wykorzystują mikrofony i kamery, żeby wiedzieć o nas jeszcze więcej.

Pozostało 85% artykułu
Materiał Promocyjny
Kod Innowacji - ruszył konkurs dla firm stawiających na nowe technologie w komunikacji z konsumentami
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Materiał Promocyjny
Polska na czele rewolucji technologii kwantowych
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska