Auswertung von Körpersprache und digitalen Daten

Aktuelle Milliardeninvestitionen von großen US-Playern wie Apple und Google in die automatisierte Gesichtserkennung zeigen die wirtschaftliche Bedeutung und potenzielle Bedrohung des gesamten AC-Ansatzes durch eine automatisierte Erfassung.

Potenzielle Datenquellen sind die Erfassung von Mimik, Kopf- und Körperbewegugen, die Auswertung stimmlicher Merkmale, wie die der Prosodie und die Erfassung von Körpertemperatur. Daneben können Interface-Daten ausgewertet werden, z. B Maus- oder Tastaturnutzung und auch Webdaten, die bisher für Vertriebsfragen verwertet werden, wie etwa Webseiten- Historie, Kaufverhalten und Social Media- Nutzung. Die Nutzung derartiger Daten ist für Vertriebszwecke meist nicht kritisch hinterfragt, für Fragen der Personalauswahl und -beurteilung, speziell in Deutschland, jedoch im höchsten Maße problematisch.

Ein Gesicht sagt mehr als 1000 Worte

Quelle: Shutterstock

In den 90er-Jahren des letzten Jahrhunderts ärgerte sich in London der Besitzer der „Gordons Wine Bar“ über Zechpreller, die ohne Bezahlen seine Bar verließen. Er entwickelte die Idee, Gesichter von Besuchern mit einer Datenbank abzugleichen, bevor diese etwas bestellen können. Daraus entstand dann die Geschäftsidee und das Programm „Facewatch“, um automatisiert Gesichter von unliebsamen Kunden oder Personen erkennen zu können und z. B. Diebstähle zu reduzieren. Mit der Software EasyPass von u. a. der Bundespolizei werden Grenzeintrittskontrollen beschleunigt, indem neben biometrischen Passdaten die Gesichter der Personen mit hinterlegten Bildern automatisch abgeglichen werden. Mit solchen Programmen kann automatisiert das Lebensalter, das Geschlecht, die Frage, ob Brillenträger ja/nein, mit einer gewissen Wahrscheinlichkeit eingeschätzt werden. Dabei werden individuelle, statische Parameter der Gesichter ausgewertet, z. B. der Abstand zwischen Nase und Augen. Einen Schritt weiter gehen Programme, welche dynamische Elemente der Mimik auswerten.

Die konzeptionelle Basis der Gesichts- bzw. Emotionserkennung ist mittlerweile ziemlich alt. In den 60er-Jahren des vorigen Jahrhunderts hat Ekman (2003) im Streit darüber, ob Emotionen erlernt oder vererbt sind, herausgefunden, dass sich in der Mimik kulturübergreifend sieben Basisemotionen unterscheiden lassen: Freude, Wut, Überraschung, Ekel, Angst, Verachtung und Trauer.
Er hat 46 mimische Ausdrücke (sogenannte Facial Action Units) beschrieben, die eine physiologisch orientierte Klassifikation der emotionalen Gesichtsausdrücke als Grundlage für die Basisemotionen sind. Zum Beispiel „Action Unit Nr. 9 Rümpfen der Nasenflügel“ wie beim verächtlichen Blick oder „Nr. 27 Vorschieben des Unterkiefers“. Die physiologische Grundlage für diese Klassifikation der Gesichtsausdrücke sind die Bewegungen von 43 Gesichtsmuskeln.

Auf der Basis dieser jahrzehntelangen Arbeit liegen kommerzielle Auswertungsprogramme vor (z. B. Facereader der Firma Noldus), welche die Veränderungen in den relativen Bildpunkten im Gesicht durch die Bewegung der Gesichtsmuskeln erfassen und so in Echtzeit die Ausprägung der Basisemotionen nach Ekman anzeigen können.
Dabei sind 70 % der mimischen Ausdrücke von Personen ohne Beteiligung von Emotionen und werden als „neutral“ ausgewiesen.

Für die Zielsetzungen der Eignungsdiagnostik ist jedoch die Erfassung von spontanen, jederzeit veränderbaren, emotionalen Ausdrücken weniger interessant als „Traits“, also Hinweise auf zeitlich stabile Persönlichkeitsdispositionen, für die dann ein Zusammenhang zu Joberfolgskriterien herzustellen ist.
Auch zu diesem Schritt der Übertragung der Gesichtserkennungssoftware in die Eignungsdiagnostik gibt es erste Studien.

In einer Bachelorarbeit an der Rheinischen Fachhochschule (RFH) wurden bei N = 82 Personen kurze, ein- bis dreiminütige Sprechund Leseaufgaben durchgeführt und dazu Aufnahmen ihrer mimischen Verhaltensweisen ausgewertet. Gleichzeitig haben diese einen NeoFFI zu ihren „Big Five“-Persönlichkeitsmerkmalen durchgeführt. Dabei ergab sich eine signifikante negative Korrelation von r = -.19 zwischen dem Aufkommen der Emotion Ekel und Extraversion
(„Je weniger Personen Ekel ausdrücken, desto mehr gehen sie auf andere zu“) sowie eine signifikante negative Korrelation zwischen dem Aufkommen der Emotion Angst und dem Persönlichkeitsmerkmal Offenheit für Neues von r = -.18 („Wer nicht ängstlich ist, der geht offener auf die Welt zu“).

Am Puls der Zeit: Interface-Geräte und Herzratenerkennung

Körpertemperatur und mentale Beanspruchung

Heutzutage können Bewegungsmuster von Interface-Geräten ausgewertet werden, das heißt: Wie benutzen wir die Computermaus und die Tastatur, wie sind etwa Schnelligkeit und Dauer der Bewegungen? Ebenfalls technisch interpretiert werden kann unsere Körper-, speziell Kopftemperatur. Dieser Parameter ist dem bisherigen menschlichen Beobachter im AC verschlossen. Viel spricht dafür, dass hier Zusammenhänge zur jeweiligen mentalen Beanspruchung herzustellen sind. Dann gibt es die sogenannte videobasiertephotoplethysmografische Herzratenerkennung: Bei jedem Pulsschlag verändert sich für das menschliche Auge nicht erkennbar kurzzeitig die Durchblutung des Gesichts, somit kann über Videosignale auch die Pulsrate ausgewertet werden.

Digitale Identität – interessant für die Personalauswahl?

Im digitalen Marketing sind die persönlichen Daten die neue Währung: Wir geben freiwillig über Kreditkarte oder Bonussystem unsere Kaufhistorie bekannt. Über unsere IP-Adresse sammeln Dienstleister Informationen über uns, z. B. zu besuchten Webseiten, die Wertigkeit unserer Wohnadresse („Scoring“) und bei wem wir schon Kunde sind.
Die Firma Cambridge Analytica ist im Zusammenhang mit der Wahl des US-Präsidenten Donald Trump bekannt geworden, weil diese angeblich über die hinterlassenen Likes und Posts eine so genaue Beschreibung der Wähler auf Basis der „Big Five“-Persönlichkeitskriterien erstellen konnte, dass jeder Wähler eine individualisierte Werbebotschaft erhielt und dies am Ende entscheidend für den Wahlerfolg gewesen sein könnte. Diese erwähnten Vorgehensweisen werden im Marketing bereits genutzt.
Daher ist es technisch prinzipiell möglich, dass Anbieter die gleichen Daten auch für Zwecke der Personalauswahl nutzen: Was kaufen wir ein? Wo halten wir uns auf? Welche Webseiten besuchen wir? Damit kann transparent gemacht werden, wie gesund wir leben, wie wir uns bewegen, welche Orte uns interessieren oder wie risikoreich wir fahren. Alle diese Daten sind biografischer Natur und unterliegen damit weniger als Verhaltens- Simulationen der Beschränkung durch sozial erwünschte Aussagen oder kurzfristige Maximalleistungen.

Fazit

Die technischen Grundlagen für die Auswertung von Körpersprache und weiteren Datenquellen wie Webdaten und Smart Devices sind gelegt und bieten Optionen, die seit 60 Jahren kaum veränderten Verfahrenskategorien des AC erstmals mit ganz neuen Elementen zu ergänzen und damit in der Kombination treffsicherere Aussagen zu Joberfolg oder Potenzial treffen zu können. Dabei entstehen zunächst viele ethische und rechtliche Fragen: Welche Legitimation wird für welche Art der nicht-autorisierten Datenverwendung akzeptiert? Gerade in Deutschland zieht der Datenschutz enge Grenzen.
Eine mehr eignungsdiagnostische Herausforderung ergibt sich aus dem Big-Data-Ansatz. Wenn alleine mit der Stimmanalyse in weniger als einer Sekunde 173 Parameter erhoben werden, dann fallen direkt unglaubliche Mengen an Daten und auch Korrelationen an. Ein übliches statistisches Prüfniveau von 5 % bedeutet, dass wir zufällige Korrelation im Umfang von 5 % noch akzeptieren. Bei hunderten Korrelationen, die bei diesen Studien und einem Vorgehen ohne Hypothesen (auch „brute force“ genannt) anfallen. Somit werden einige der berichteten Korrelationen reiner Zufall sein und deren Stabilität ist durch Folgeuntersuchungen zu bestätigen.

Weitere Artikel dieser Newsletterausgabe: