Zukunftsmusik: Automatische Mimik Analyse in der Personalauswahl

Geschäftsidee „Facewatch“

In den 90er-Jahren des letzten Jahrhunderts ärgerte sich in London der Besitzer der „Gordons Wine Bar“ über Zechpreller, die ohne Bezahlen seine Bar verließen. Er entwickelte die Idee, Gesichter von Personen, die in seine Bar kommen, mit einer Datenbank abzugleichen, bevor diese etwas bestellen können. Daraus entstand dann die Geschäftsidee und das Programm „Facewatch“, um automatisiert Gesichter von unliebsamen Kunden oder Personen erkennen zu können und z. B. Diebstähle zu reduzieren.

Mit der Software EasyPass von u. a. der Bundespolizei werden Grenzeintrittskontrollen beschleunigt, indem neben biometrischen Passdaten die Gesichter der Personen mit hinterlegten Bildern automatisch abgeglichen werden, dabei sollen die Gesichter zu 94 % erkannt werden können. Mit solchen Programmen kann automatisiert in etwa das Lebensalter, das Geschlecht, die Frage, ob Brillenträger ja/nein, mit einer gewissen Wahrscheinlichkeit eingeschätzt werden. Bei diesen Programmen werden individuelle, statische Parameter der Gesichter ausgewertet, z. B. der Abstand zwischen Nase und Augen.

Automatisches Assessment von Mimik

Einen Schritt weiter gehen Programme, welche dynamische Elemente der Mimik auswerten. So bieten Firmen wie Affectiva oder Emotient aus den USA an, Gefühlsausdrücke zu erkennen.Die konzeptionelle Basis der Gesichts- bzw. Emotionserkennung ist mittlerweile ziemlich alt. In den 60er-Jahren des vorigen Jahrhunderts hat Ekman (2003) im Streit darüber, ob Emotionen erlernt oder vererbt sind, herausgefunden, dass sich in der Mimik kulturübergreifend sieben Basisemotionen unterschieden lassen: Freude, Wut, Überraschung, Ekel, Angst, Verachtung und Trauer. Er hat 46 mimische Ausdrücke (sogenannte Facial Action Units) beschrieben, die eine physiologisch orientierte Klassifikation der emotionalen Gesichtsausdrücke als Grundlage für die Basisemotionen sind. Zum Beispiel „Action Unit Nr. 9 Rümpfen der Nasenflügel“ wie beim verächtlichen Blick oder „Nr. 27 Vorschieben des Unterkiefers“. Die physiologische Grundlage für diese Klassifikation der Gesichtsausdrücke sind die Bewegungen von 43 Gesichtsmuskeln, der größte Muskel ist etwa der große Jochbeinmuskel, mit dem wir lächeln.

Facereader messen die Relationen von Bildpunkten im Gesicht

Auf der Basis dieser jahrzehntelangen Arbeit liegen kommerzielle Auswertungsprogramme vor (z. B. Facereader der Firma Noldus), die die Veränderungen in den relativen Bildpunkten im Gesicht durch die Bewegung der Gesichtsmuskeln erfassen und so in Echtzeit die Ausprägung der Basisemotionen nach Ekman anzeigen können. Dabei sind 70 % der mimischen Ausdrücke von Personen ohne Beteiligung von Emotionen und werden als „neutral“ ausgewiesen.

Erste Forschungsergebnisse zur Eignungsdiagnostik

Für die Zielsetzungen der Eignungsdiagnostik ist jedoch die Erfassung von spontanen, jederzeit veränderbaren, emotionalen Ausdrücken weniger interessant als „Traits“, also Hinweise auf zeitlich stabile Persönlichkeitsdispositionen, für die dann einen Zusammenhang zu Joberfolgskriterien herzustellen ist.

Mehr dazu auch auf unserer Seite „Online Assessment“.