Smartwatche już teraz umieją bardzo dużo, jednak naukowcy z całego świata wymyślają dla nich nowe funkcjonalności. Jedni chcą sterować za jego pomocą bakteriami w organizmie, inni zaś odgadywać emocje użytkowników. Ale o ile to pierwsze to zapewne melodia przyszłości, to drugi z ww. projektów ma spore szanse na rychłe ukończenie i wdrożenie na komercyjny rynek.
Grupa badaczy z MIT (Massachusetts Institute of Technology, pol. Instytut Technologiczny w Massachusetts) opracowała algorytmy, które potrafią rozpoznać emocje, jakie towarzyszą danej osobie w trakcie wypowiedzi. Analizują one w tym celu audio, transkrypcję tekstową oraz fizjologiczne sygnały. Na tej podstawie określają ogólny ton wypowiedzi. Dotychczasowe badania wykazały aż 83% zgodność. Można też podzielić całość na pięciosekundowe „odcinki” i określić emocje dla każdego z nich.
Do testów wykorzystano opaskę Samsung Simband, która potrafi zbierać różne fizjologiczne dane, takie jak ruchy kończyny, tętno, ciśnienie i przepływ krwi oraz temperaturę ciała. Specjalnie opracowany system rejestruje również dźwięk oraz transkrypcję tekstową oraz analizuje ton i żywiołowość wypowiedzi, a także używane słownictwo.
W przyszłości badacze chcą opracować takie algorytmy, które pozwolą analizować wypowiedzi więcej niż jednej osoby. W dodatku zapewniają, że cały proces ma się dokonywać bezpośrednio na urządzeniu, dzięki czemu użytkownik nie będzie się musiał obawiać o bezpieczeństwo prywatnych informacji.
Potrzebne są jednak dalsze testy. Naukowcy z MIT chcieliby je przeprowadzić na masową skalę przy użyciu komercyjnego produktu, takiego jak na przykład Apple Watch. Chcą też bardziej dopracować algorytmy – tak, aby bardziej szczegółowo analizowały emocje, a nie tylko szufladkowały je jako „pozytywne”, „neutralne” i „negatywne”.
Całe przedsięwzięcie realizowane jest z myślą przede wszystkim o osobach, które mają problemy z komunikacją.