TechnikEmotion Analytics

Computer erkennen Emotionen

Lesezeit ca.: 5 Minuten
Lisa Kräher

Lisa Kräher

freie Journalistin

Big Data macht es möglich: Programme können an der Stimme oder dem Gesichtsausdruck erkennen, wie wir fühlen. In der Marktforschung wird die Technologie bereits eingesetzt. Autisten könnte das helfen, Emotionen anderer Menschen besser zu verstehen.

18. August 2015

Es kommt nicht nur darauf an, was man sagt, sondern vor allem, wie man es sagt. Das weiß Nicole Kidd. Die Marketing-Beraterin aus San Francisco führt in ihrem Job viele Gespräche mit Kunden und hält Vorträge. Sie muss einen guten Eindruck machen und Menschen überzeugen. Um vor einer Präsentation zu kontrollieren, wie ihre Rede wirkt, nutzt sie die App „Moodies“ des israelischen Start-ups Beyond Verbal. Nach rund 20 Sekunden erkennt die App an Nicoles Stimme, ob sie aufgeschlossen und motiviert klingt oder eher unsicher. Das hilft Nicole, sich zu verbessern.

Die Stimme gibt Aufschluss, ob der Bewerber passt

Emotion Analytics ist ein Bereich des Affective Computing. In der Marktforschung wird diese Technologie eingesetzt, um zu erfahren, wie Kunden zum Beispiel auf ein Produkt oder einen Kino-Trailer reagieren. Wie verkaufseffizient Mitarbeiter von Call-Centern im Kundengespräch sind, wird anhand ihrer Stimme analysiert. Laut einer aktuellen Studie der Chicago Booth School of Business wird die Stimme auch beim Recruiting immer wichtiger. Einige Unternehmen analysieren mit Softwares bereits die Stimmen ihrer Bewerber, um zu prüfen, ob diese die passenden Eigenschaften für den Job mitbringen.

Neben Stimme und Gesichtsausdruck ziehen Programme auch über die Körperhaltung und physiologische Daten wie Herzfrequenz, Gehirnströme oder Hautschweiß Rückschlüsse auf unser Befinden. Ob wir fröhlich, traurig oder überrascht sind – das kann man am besten im Gesicht eines Menschen ablesen oder aus den gewählten Worten. Ob wir eher gelassen sind oder sehr erregt, verrät der Klang unserer Stimme, aber auch physiologische Daten.

2,5 Millionen Gesichter analysiert

Big Data macht es möglich: Beyond Verbals Software hat aus mehr als 1,5 Millionen Stimmproben gelernt, wie zum Beispiel Einsamkeit oder Dominanz klingen. Für die Gesichtserkennung Affdex der US-Firma Affectiva wurde der Gesichtsausdruck von bislang mehr als 2,5 Millionen Menschen analysiert. Wie der Psychologe Dr. Cal Lightman in der US-Krimi-Serie „Lie to me“ kann Affdex anhand kleinster, für den Laien kaum wahrnehmbarer Bewegungen im Gesicht Gefühle wie Scham, Überraschung oder Ekel erkennen.

Die Software unterscheidet zwischen beweglichen Punkten (z. B. Mundwinkel) und nicht beweglichen Punkten, sogenannten Ankern, wie der Nasenspitze. Die unterschiedlichen Gesichtsausdrücke werden dadurch definiert, wie weit die Punkte auseinander sind. In einem Interview mit dem US-Magazin „The New Yorker“ sagte die Affectiva-Gründerin Rana El Kaliouby: „In zehn Jahren können wir uns es nicht mehr vorstellen, dass unsere Smartphones einst nicht wussten, dass wir sie genervt anschauten, wenn etwas nicht funktionierte.“

Die Marketing-Expertin Nicole Kidd nutzt ihre Stimmerkennungs-App auch privat. Zum Beispiel, wenn sie mit ihrer 11-jährigen Tochter Konflikt-Themen wie Taschengeld, Fernsehschauen etc. verhandelt. „Manchmal nehme ich meine Tochter, ohne dass sie es sieht, mit meinem Handy auf. Sie war schon oft erstaunt, als sie sich selbst hörte und auf dem Display sah, wie ihre Stimme bei mir ankommt“, sagt Kidd. Auch wenn Kidd schon ab und zu von der App missverstanden wurde, wenn die Nebengeräusche zu laut waren oder mehrere Personen auf einmal sprachen, ist sie begeistert von dieser Technologie.

Gefühlvolle Siri

Den Standort preiszugeben ist für viele selbstverständlich. Aber die Gefühle? „In circa fünf Jahren wird wahrscheinlich der ganz normale Anwender solche Programme im Alltag nutzen“, sagt Björn Schuller. Er ist Professor für Informatik an der Universität Passau, lehrt und forscht am Imperial College in London und ist Präsident der Association for the Advancement of Affective Computing (AAAC) – dem Dachverband für affektive Datenverarbeitung. Es gehe nicht nur um die Analyse, also das Erkennen des Computers von Emotionen, sondern vor allem auch um die Reaktion.

Seit ein paar Jahren können wir unserem iPhone sagen, was es tun soll. Anstatt monoton auf Fragen zu antworten, könnte Siri also bald auch auf unsere Stimmung eingehen, glaubt Schuller: durch einen mitfühlenden Ton, wenn wir traurig sind oder zustimmend fröhlich, wenn wir gerade eine Gehaltserhöhung bekommen haben. Der Computer im Auto könnte erkennen, ob der Fahrer gerade gestresst vom Verkehr ist, und erst dann die neue Mail vorlesen, wenn die Situation wieder entspannter ist. Oder er versucht den Fahrer mit Licht oder Musik wieder zu besänftigen.

Computerspiel für Autisten

Gefühle erkennen und interpretieren – vor allem Autisten, die sich damit schwer tun, könnte die Technologie helfen. Für das EU-Forschungsprojekt „ASC-Inclusion“ haben Schuller und Kollegen ein Computer-Spiel für autistische Kinder entwickelt. Die Probanden lernen damit Gesichtsausdrücke, Körpergesten und Tonlagen zu 20 unterschiedlichen Emotionen einerseits zu verstehen, aber auch zu zeigen. Am Fraunhofer Institut für Integrierte Schaltungen (IIS) in Erlangen wurde mit „Shore“ ein Programm entwickelt, das auch auf Geräten mit geringer Rechenleistung, wie zum Beispiel der Datenbrille Google Glass, läuft. Der Algorithmus für die Gesichtserkennung und die Analyse von Alter, Geschlecht und Gesichtsausdruck wurde mit Hilfe einer Datenbank von mehr als 30.000 Gesichtern entwickelt. In der Marktforschung wird Shore bereits angewendet. Mit Autisten wurde es noch nicht getestet, Gespräche mit Autismusforschern laufen aber derzeit, so Dr. Jens Garbas vom Fraunhofer Institut.

Deutungshilfe beim Date?

In einem Werbevideo von Beyond Verbal wird die App „Moodies“ auch als Flirthilfe angepriesen. „Stell dir vor, sie kommt auf deine Einladung vorbei und du hast keine Ahnung, wie sie es meint. Die App hilft dir, es herauszufinden“, sagt der Sprecher im Video, während über den beiden Cartoon-Figuren rote Herzchen erscheinen. Und Nicole Kidd? Auch wenn sie fasziniert von der Technologie ist und darin eine Hilfe für berufliche Situationen und andere Lebenslagen sieht, verlässt sie sich bei manchen Dingen lieber auf ihre Lebenserfahrung – und ihr eigenes Gefühl.