Image: Schau mir in die Augen, KIFERCHAUFERCHAUWird uns Künstliche Intelligenz in Zukunft besser kennen als wir uns selbst? | Devrimb
TechnikAlgorithmus erkennt Persönlichkeit

Schau mir in die Augen, KI

Lesezeit ca.: 3 Minuten
Rüdiger Vossberg

Rüdiger Voßberg

freier Journalist

Augenbewe­gungen verraten offensicht­lich einiges über die Persönlich­keit junger Menschen. Zu diesem Ergebnis kommt eine aktuelle Studie von deutschen und australi­schen Wissenschaft­lern. Roboter könnten eines Tages durch diese neuen Erkenntnisse humaner mit den Menschen agieren.

21. Januar 2019

Menschen deuten Gesten und Blicke relativ schnell. Computer können bei dieser menschli­chen Eigenschaft nicht mithalten. Noch nicht. Denn Informatiker aus Saarbrücken und Stuttgart haben mit Psychologen aus Australien ein Software­system entwickelt, das anhand von Augenbewe­gungen einer Person erkennt, ob diese verletzlich, gesellig, verträglich, gewissen­haft oder neugierig ist. Künstliche Intelligenz macht es möglich.

Die Persönlich­keit in den Augen

Dazu sollten 50 Studenten (42 Frauen und acht Männer) im Durchschnitts­alter von 22 Jahren von der University of South Australia in Adelaide fünf Dollar in einem Laden ihrer Wahl auf dem Unicampus ausgeben. Dafür hatten sie maximal zehn Minuten Zeit. Während des Experimentes trugen alle Teilnehmer eine Eye-Tracking-Brille, die die Bewegungen ihrer Augen permanent filmte. Sie wurden vorab nicht über den Sinn und Zweck ihrer Einkaufs­tour informiert.

Anschlie­ßend sollten die Probanden standardi­sierte Fragebögen ausfüllen, mit denen Psychologen weltweit seit vielen Jahren im Rahmen von Persönlich­keits­tests arbeiten. Dieses so genannte Fünf-Faktoren-Modell beschreibt die Haupteigen­schaften einer Persönlich­keit: Aufgeschlos­sen­heit, Perfektio­nismus, Gesellig­keit, Empathie und Verletzlich­keit. Das Verfahren gilt heute international als das universelle Standard­mo­dell in der Persönlich­keits­for­schung.

KI-Fenster zur Seele

Mit den Ergebnissen aus diesen Fragebögen zur Persönlich­keit und den dazugehö­rigen Augenbewe­gungen der entsprechenden Person wurde der Algorithmus des KI-Systems trainiert. Nach dieser Lehrstunde sollte es dann aus den Augenbewe­gungen anderer Personen eine Vorhersage über deren Persönlich­keits­struktur machen. „Unsere KI konnte aus den Eye-Tracking-Daten die Ergebnisse anderer Fragebögen ziemlich gut prognosti­zie­ren“, erklärt der Leiter des Lehrstuhls für Mensch-Computer Interaktion und Kognitive Systeme an der Universität Stuttgart, Professor Andreas Bulling.

Die Vorhersagen zur Persönlich­keit liegen demnach über dem statisti­schen Zufallsni­veau. Nur zur Eigenschaft „Offenheit“ konnte das KI-System keine zuverläs­sige Vorhersage treffen. „Vielleicht war die Datenmenge noch nicht ausreichend oder die Problemstel­lung ist aktuell noch zu schwierig“, vermutet der Professor.

Die Kultur im Blick

Persönlich­keits­for­schung ist auch immer abhängig vom kulturellen Lebensraum der Menschen. So ist in manchen Kulturen beispiels­weise Augenkon­takt weniger üblich. Die australi­schen Ergebnisse könnten somit nicht einfach auf Personen in anderen Kulturkreisen übertragen werden. Denn die KI erkennt keine ethnischen oder kulturellen Muster. Das muss sie erst wieder lernen, um zum Beispiel auch in asiatischen Kulturkreisen sichere Vorhersagen treffen zu können.

Für diesen Lernprozess benötigt die KI alle exakten Positionen der Pupillen für jedes einzelne Videobild. Die Pupille wird darin als Ellipse detektiert. Dann wird der Mittelpunkt dieser Ellipsen bestimmt und über die Zeit aufgetragen. So erhält man eine Zeitreihe der Pupillen­po­si­tionen, sowie - über die Bestimmung der Fläche - eine Schätzung der Pupillen­größe.

Der mobile Eye Tracker, das Gerät, das die Probanden beim Test aufsetzen mussten, hat eine Augen- und eine Szenenka­mera. So weiß man immer, wohin die Person gerade schaut. Grundlegende Augenbewe­gungs­typen werden dabei detektiert: insbeson­dere Sakkaden (schnelle Augenbewe­gungen) und Fixationen (statische Zustände zwischen zwei Sakkaden). Zur Erkennung von Fixationen der Zeitserien, das heißt über mehrere einzelner Videobilder, haben die Wissenschaftler einen speziellen Algorithmus verwendet. Die so erkannten optischen Merkmale sind dann, zusammen mit der über die Fragebögen erhaltenen Grundwahr­heiten zu den Persönlich­keitscha­rak­te­ris­tiken, die Eingabedaten für das Lernverfahren.

Keine Persönlich­keits­stu­dien aus der Ferne

Überwachungs­be­hörden und Geheimdienste reiben sich nun wohl angesichts des gewaltigen Anwendungs­po­ten­zials die Augen. „Unsere Persönlich­keits­er­ken­nung erfordert eine Kamera unmittelbar vor dem Auge. Eine Analyse aus der Ferne ist noch nicht möglich“, berichtet Bulling. Ein zukünftiges Einsatzsze­nario sieht der Forscher in der Interaktion zwischen Roboter und Menschen.

„Man könnte zum Beispiel das so gewonnene Wissen über nonverbales Verhalten auch auf Roboter übertragen, so dass diese sich menschen­ähn­li­cher verhalten“, resümiert Bulling. Diese Systeme würden dann auf eine viel natürlichere Weise mit Menschen kommunizieren und wären dadurch effizienter und flexibler einsetzbar. Aber bis es soweit ist, müssen die Algorithmen noch sehr viel Zeit damit verbringen, Blickkon­takt mit den Menschen zu halten.