https://frosthead.com

Pewnego dnia Twój telefon będzie wiedział, czy jesteś szczęśliwy czy smutny

Analiza twarzy w pracy. Zdjęcie dzięki uprzejmości Affectiva

Tyle czasu, ile spędzamy z telefonami komórkowymi, laptopami i tabletami, jest to nadal relacja jednokierunkowa. Działamy, odpowiadają. Jasne, możesz kontynuować rozmowę z Siri na swoim iPhonie, a mimo że jest szybka, trudno ją zakwalifikować jako zabawne przekomarzanie się. Zadajesz pytania, ona udziela odpowiedzi.

A jeśli te urządzenia naprawdę potrafią odczytać nasze emocje? A gdyby potrafili zinterpretować każdy najmniejszy gest, każdą wskazówkę twarzy, aby mogli ocenić nasze uczucia, a także - może lepiej niż - naszych najlepszych przyjaciół? A potem odpowiadają nie informacją, ale tym, co może uchodzić za empatię.

Jeszcze nas tam nie ma, ale szybko zmierzamy w tym kierunku, kierując się dziedziną nauki znaną jako informatyka afektywna. Opiera się na oprogramowaniu, które może mierzyć, interpretować i reagować na ludzkie uczucia. Może to obejmować uchwycenie twarzy w aparacie, a następnie zastosowanie algorytmów do każdego aspektu wyrażenia, aby spróbować zrozumieć każdy uśmieszek i pocieranie brody. Lub może obejmować czytanie poziomu irytacji lub przyjemności poprzez śledzenie, jak szybko lub z jaką siłą stukniesz tekst lub czy używasz emotikonów. A jeśli wydajesz się zbyt poruszony lub pijany, możesz otrzymać wiadomość sugerującą, że możesz wstrzymać się z naciśnięciem ikony wysyłania.

Widząc, jak trudno nam ludziom zrozumieć innych ludzi, ta koncepcja programowania maszyn do odczytywania naszych uczuć nie jest małym wyzwaniem. Ale nabiera tempa, gdy naukowcy skupiają się na uczeniu inteligencji emocjonalnej.

Każdy twój ruch

Jednym z lepszych przykładów tego, w jaki sposób może działać informatyka afektywna, jest podejście firmy zwanej odpowiednio Affectiva. Rejestruje wyrażenia, a następnie, używając zastrzeżonych algorytmów, analizuje wskazówki dotyczące twarzy, korzystając z bazy danych zawierającej prawie 300 milionów ramek elementów ludzkich twarzy. Oprogramowanie zostało dopracowane do tego stopnia, że ​​może kojarzyć różne kombinacje tych elementów z różnymi emocjami.

Gdy zostało opracowane w MIT's Media Lab przez dwóch naukowców, Rosalind Picard i Rana el Kaliouby, oprogramowanie znane jako Affdex zostało zaprojektowane w celu pomocy dzieciom z autyzmem w lepszej komunikacji. Ale wyraźnie miał duży potencjał w świecie biznesu, dlatego MIT przekształcił projekt w prywatną firmę. Od tego czasu zebrał od inwestorów 21 milionów dolarów.

Jak więc stosuje się Affdex? Najczęściej ogląda ludzi oglądających reklamy. rejestruje ludzi, którzy oglądają reklamy na swoich komputerach - nie martw się, musisz się na to zdecydować - a następnie, w oparciu o bazę danych wskazówek dotyczących twarzy, ocenia, jak widzowie myślą o tym, co zobaczyli. A oprogramowanie nie zapewnia jedynie ogólnego pozytywnego lub negatywnego werdyktu; rozkłada reakcje widzów z sekundy na sekundę, co pozwala reklamodawcom z większą niż kiedykolwiek precyzją rozpoznać, co działa w reklamie, a co nie.

Jest także w stanie zauważyć, że podczas gdy ludzie mówią jedno, ich twarze mogą powiedzieć coś innego. Podczas wywiadu z Huffington Post el Kaliouby podał przykład odpowiedzi na reklamę balsamu do ciała, która była emitowana w Indiach. Podczas reklamy mąż żartobliwie dotyka odsłoniętego brzucha żony. Następnie wiele kobiet, które ją oglądały, twierdziło, że uznały tę scenę za obraźliwą. Ale, według El Kaliouby, filmy widzów pokazały, że każda z kobiet zareagowała na scenę, jak to nazywała „uśmiechem przyjemności”.

Widzi możliwości poza światem reklamy. Telewizory inteligentne mogą być o wiele mądrzejsze pod względem tego, jakie programy lubimy, jeśli są w stanie opracować zestaw pamięci naszych mimiki. A politycy byliby w stanie reagować w czasie rzeczywistym na każdą wypowiedź wypowiadaną podczas debaty i mogli dostosowywać swoje przesłanie w czasie rzeczywistym. Ponadto, mówi el Kaliouby, mogą istnieć aplikacje zdrowotne. Mówi, że można odczytać tętno danej osoby za pomocą kamery internetowej, analizując przepływ krwi na jego twarzy.

„Wyobraź sobie, że kamera cały czas monitoruje Twoje tętno”, powiedziała Huffington Post, „dzięki czemu będzie w stanie stwierdzić, czy coś jest nie tak, jeśli chcesz się bardziej wysportować lub marszczysz brwi czas i potrzeba relaksu. ”

Więc co myślisz, przerażające lub fajne?

Urządzenia śledzące

Oto pięć innych sposobów, w jakie maszyny reagują na ludzkie emocje:

  • A jak mi minął dzień: Naukowcy z University of Cambridge opracowali aplikację mobilną na Androida, która monitoruje zachowanie osoby w ciągu dnia, używając połączeń przychodzących i SMS-ów oraz wpisów w mediach społecznościowych, aby śledzić ich nastrój. Aplikacja o nazwie „Emotion Sense” została zaprojektowana w celu stworzenia „podróży odkrywania”, umożliwiając użytkownikom rejestrowanie cyfrowej wartości szczytów i dolin ich codziennego życia. Dane mogą być przechowywane i wykorzystywane do sesji terapeutycznych.
  • I to ja po trzeciej filiżance kawy: jest też Xpression, kolejna aplikacja do śledzenia nastroju stworzona przez brytyjską firmę EI Technologies. Zamiast polegać na ludziach w terapii, którzy pamiętają o zmianach nastroju, aplikacja nasłuchuje zmian w głosie danej osoby, aby ustalić, czy znajduje się ona w jednym z pięciu stanów emocjonalnych: spokojnym, szczęśliwym, smutnym, gniewnym lub niespokojnym / przestraszonym. Następnie zachowuje listę nastrojów danej osoby i jej zmiany. A jeśli dana osoba sobie życzy, ten zapis może być automatycznie wysyłany do terapeuty pod koniec każdego dnia.
  • Co jeśli nie lubisz pisać na telefonie? : Naukowcy z Samsung pracują nad oprogramowaniem, które oceni twoje samopoczucie na podstawie sposobu pisania tweetów na smartfonie. Analizując szybkość pisania, intensywność drgań telefonu, liczbę błędów cofania i liczbę używanych emotikonów, telefon powinien być w stanie określić, czy jesteś zły, zaskoczony, szczęśliwy, smutny, przerażony lub zniesmaczony. Na podstawie wyciągniętych wniosków może on zawierać w tweecie odpowiedni emotikon, aby poinformować obserwujących o stanie umysłu.
  • Po prostu nie zapraszaj swoich przyjaciół do oglądania: używając czujnika noszonego na nadgarstku i aparatu smartfona na szyi, badacze z MIT stworzyli system „lifelogging”, który gromadzi zdjęcia i dane zaprojektowane w celu pokazania osobie, które zdarzenia reprezentują ich emocjonalne wzloty i upadki. System, zwany Inside-Out, zawiera bioczujnik w opasce, który śledzi podwyższone emocje poprzez ładunki elektryczne w skórze, podczas gdy smartfon śledzi lokalizację osoby i robi kilka zdjęć na minutę. Następnie, pod koniec dnia, użytkownik może zobaczyć swoje doświadczenia wraz ze wszystkimi danymi czujnika.
  • Twoje czoło mówi, że masz problemy: Prawdopodobnie było to nieuniknione. Naukowcy z University of Southern California stworzyli robota-terapeutę, który jest nie tylko zaprogramowany, aby zachęcać pacjentów z odpowiednio dobranym „Uh-huhs”, ale także jest ekspertem, wykorzystującym czujniki ruchu i analizę głosu, w interpretacji każdego gestu i głosu pacjenta przegięcie podczas sesji terapeutycznej.

Bonus wideo: Chcesz zobaczyć, jak dziwny może być ten trend urządzeń odczytujących ludzkie emocje? Sprawdź promocję Tailly, mechanicznego ogona, który podnosi poziom emocji, śledząc tętno, a następnie macha odpowiednio.

Więcej z Smithsonian.com

Ten nowy robot ma zmysł dotyku

Gotowanie z robotami

Pewnego dnia Twój telefon będzie wiedział, czy jesteś szczęśliwy czy smutny