Mechanische Urteilsbildung in Assessments – aktuelle Erkenntnisse von Marvin Neumann

Christof Obermann

Mechanische vs. klinische Urteilsbildung ist längst mehr als eine akademische Streitfrage. Für Organisationen, die Assessments oder Auswahlverfahren einsetzen, geht es um Prognosegüte, Fairness, Transparenz – und darum, ob Führungskräfte die eingesetzten Verfahren auch akzeptieren. Die jüngeren Arbeiten von Marvin Neumann et al. zeichnen ein klares Bild: Regelbasierte Entscheidungsregeln (im amerikanischen Sprachgebrauch „mechanistisch“ oder „statistisch“)  sind klinischen (= „per Diskussion“) Gesamteindrücken in der Regel überlegen – und sie lassen sich so gestalten, dass professioneller Freiraum erhalten bleibt.

Ein zentraler Ausgangspunkt ist das Tutorial von Meijer, Neumann, Hemker und Niessen (2020). Es zeigt anhand zahlreicher Beispiele, wie bereits einfache, transparente Entscheidungsregeln (gewichtete Summen, Cut-off-Kombinationen) die Vorhersage von Leistung und Eignung verbessern und zugleich überprüfbar machen, wie Entscheidungen zustande kommen.

Autonomie–Validitäts-Dilemma

Darauf aufbauend beschreibt Neumann et al. (2022) das Autonomie–Validitäts-Dilemma: Obwohl mechanische Verfahren nachweislich valider sind, bevorzugen viele Entscheider bzw. Entscheiderinnen weiterhin holistische, intuitive Urteile – aus dem Wunsch nach Autonomie, professioneller Identität und Verantwortungsgefühl. Die Frage verschiebt sich damit von „Welches Vorgehen ist besser?“ hinzu:“ Wie gestalten wir mechanische Verfahren so, dass sie akzeptiert und genutzt werden, ohne Validität zu verlieren?“. Dieses Dilemma erklärt auch einzelne Akzeptanzschwierigkeiten für die AC-/DC-Methodik – die Furcht von Führungskräften, bisher autonome Personalentscheidungen an die Personalabteilung oder ein nicht steuerbares Gremium mit ungewissem Ausgang abgeben zu müssen.

In „Predicting decision-makers’ algorithm use“ (Neumann et al., 2023) wird deutlich: Die Nutzung mechanischer Empfehlungen hängt stark davon ab, ob Entscheider bzw. Entscheiderinnen Algorithmen als akkurater und fairer einschätzen – und ob sie ihre eigene Verantwortung gewahrt sehen. Menschen folgen mechanischen Empfehlungen eher, wenn sie deren Funktionsweise verstehen und sich nicht „entmündigt“ fühlen.

„Adding an egg“ als Akzeptanzaufbau

Genau hier setzt „Adding an egg“ an (Neumann et al., 2024): Mechanische Verfahren werden mit gezielten Autonomie-Elementen kombiniert, etwa begrenzten und dokumentationspflichtigen Overrides oder Mitgestaltung bei Gewichten. Das Ergebnis: deutlich höhere Akzeptanz bei weiterhin hoher Prognosegüte – also ein praktisch tragfähiger Kompromiss zwischen Evidenz und professionellem Selbstverständnis. Neuere Arbeiten zu erklärbaren, „selbsterklärenden“ Empfehlungssystemen führen diesen Ansatz fort: Algorithmen werden so gestaltet, dass sie ihre Logik transparent machen und damit Vertrauen stärken.

Für die Praxis in Eignungsdiagnostik und Assessments ergibt sich:

  1. Mechanische Regeln als Standard: Wer valide Testverfahren nutzt, sollte auch deren Kombination mechanisch regeln – alles andere verschenkt Prognosegüte.
  2. Strukturierter Freiraum statt Bauchgefühl: Klinische Einschätzung bleibt möglich, wird aber als klar definierter, begründungs- und dokumentationspflichtiger Schritt integriert.
  3. Transparenz & Beteiligung: Wenn Führungskräfte verstehen, wie Scores zustande kommen und wo sie mitentscheiden dürfen, steigen Akzeptanz, Fairnesswahrnehmung und Compliance.

So wird aus dem vermeintlichen Gegensatz „mechanisch vs. klinisch“ ein modernes Assessmentsystem mit mechanischem Kern und verantwortungsvoll gestalteten Spielräumen.

Beispiele: Mechanische Entscheidungsregeln mit definiertem Diskussionsspielraum

Mechanische EntscheidungsregelGeplanter Freiraum für Diskussion & klinische Einschätzung
Gesamt-Score aus kognitivem Test, Interview und Simulation; Einladung ab ≥ 70.Bei 65–69 kann ein Gremium auf Einladung entscheiden, wenn klar definierte Stärken vorliegen (pflichtige Begründung im Protokoll).
Feste Mindestwerte bei Integritäts- oder Risikoskalen (z.B. kein Wert unter T=40).Bei knappem Verfehlen kann ein zusätzliches strukturiertes Interview angesetzt werden; Entscheidung + Gründe werden dokumentiert.
Rangreihung nach validiertem Gesamt-Score; Besetzung aus den Top X.Entscheidungsträger wählen innerhalb der Top-Gruppe unter vorab definierten Kriterien (Teamfit, Zusatzkompetenzen), nicht darunter.
Algorithmische Empfehlung „geeignet / bedingt geeignet / nicht geeignet“ auf Basis linearer Gewichtung.Nur Fälle „bedingt geeignet“ werden im Panel diskutiert; Abweichungen von der Empfehlung sind möglich, aber nur mit schriftlicher Begründung.
Standardisierte Interviewratings werden zu einem gewichteten Gesamtwert kombiniert.Im engen Toleranzbereich (z.B. ±2 Punkte) darf das Panel das Urteil anpassen; jede Anpassung erfordert Bezug auf definierte Kriterien.

Interesse an Kontakt und Projekten mit Obermann Consulting?
Jetzt Mail schreiben an info@obermann-consulting.de, übers Kontaktformular melden oder anrufen unter 0221/920 46-0!

Wir freuen uns!

Literatur

Meijer, R. R., Neumann, M., Hemker, B. T., & Niessen, A. S. M. (2020). A tutorial on mechanical decision-making for personnel and educational selection. Frontiers in Psychology, 10, 3002. https://doi.org/10.3389/fpsyg.2019.03002

Neumann, M., Niessen, A. S. M., Tendeiro, J. N., & Meijer, R. R. (2022). The autonomy–validity dilemma in mechanical prediction procedures: The quest for a compromise. Journal of Behavioral Decision Making, 35(4), e2270. https://doi.org/10.1002/bdm.2270

Neumann, M., Niessen, A. S. M., & Meijer, R. R. (2023). Holistic and mechanical combination in psychological assessment: Why algorithms are underutilized and what is needed to increase their use. International Journal of Selection and Assessment, 31(2), 267–285. https://doi.org/10.1111/ijsa.12416

Neumann, M., Niessen, A. S. M., & Meijer, R. R. (2023). Predicting decision-makers’ algorithm use. Computers in Human Behavior, 145, 107759. https://doi.org/10.1016/j.chb.2023.107759

Neumann, M., Niessen, A. S. M., Linde, M., Tendeiro, J. N., & Meijer, R. R. (2024). “Adding an egg” in algorithmic decision making: Improving stakeholder and user perceptions, and predictive validity by enhancing autonomy. European Journal of Work and Organizational Psychology, 33(3), 245–262.

Cookie Consent mit Real Cookie Banner