Zwischen Gütekriterien, Science-Fiction und Prompts
Wohin steuert die Personaldiagnostik im KI-Zeitalter? Während die künstliche Intelligenz die Auswahlverfahren effizienter, skalierbarer und scheinbar präziser macht, wächst zugleich der Druck, diagnostische Gütekriterien, Transparenz und menschliche Urteilskompetenz neu zu schärfen.

Im Assessment ist vielleicht gar nicht so klar, ob man die KI steuert oder die KI einen steuert. (Bild: zVg)
Wer ist im Assessment Center eigentlich «der Cyborg»*? Die kandidierende Person, die ihre Bewerbung mit generativer KI schärft, Antworten testet und sich digital umfassend auf alle Eventualitäten vorbereitet? Oder die assessierende Person, die mit Transkripten, Scoringsystemen, Prompts und algorithmischen Hilfen urteilt? Was nach Science-Fiction klingt, ist längst Teil der Rekrutierungspraxis. Technologien greifen heute an vielen Stellen in Auswahlprozesse ein: Sie transkribieren Interviews, strukturieren Beobachtungen, unterstützen Bewertungen, generieren Inhalte und machen Verfahren skalierbarer. Gleichzeitig nutzen auch Bewerbende dieselben Werkzeuge, um sich auf Tests, Interviews und schriftliche Aufgaben vorzubereiten oder diese gezielt zu optimieren.
Gerade beim Assessment Center sind diese Entwicklungen hochrelevant. In der Schweiz setzen rund drei Viertel der mittleren bis grossen Unternehmen Assessment Center ein¹. Die Methode ist also keineswegs ein Nischeninstrument, sondern fest im diagnostischen Alltag verankert. Umso dringlicher ist die Frage: Was passiert mit ihrer Qualität, wenn KI auf beiden Seiten des Verfahrens wirksam wird?

Zwischen Forschung und Zukunftserzählungen existiert mehr als Spekulation. Es liegen erste empirische Befunde, praktische Erfahrungen und normative Leitplanken vor. Die Schweizer Qualitätsstandards von Swiss Assessment und die deutsche sowie die Schweizer Norm für berufsbezogene Eignungsdiagnostik formulieren klar, was gute Diagnostik ausmacht: unter anderem Anforderungsbezug, systematische Beobachtung, Transparenz, Fairness, Qualifikation der Beteiligten und klare Verantwortungsübernahme im Prozess. Genau diese Gütekriterien werden durch KI nicht obsolet, sondern wichtiger.
Ein nützliches Denkwerkzeug für die Einordnung der KI liefert Marshall McLuhan². Seine Medien-Tetrade fragt bei neuen Technologien: Was verstärkt KI? Was verdrängt KI? Was bringt KI zurück? Und wann kippt ein Fortschritt in sein Gegenteil? Entlang dieser vier Fragen zeigt sich, wie KI die Personaldiagnostik verändert und wohin sie sich in den nächsten Jahren entwickeln könnte. McLuhans Denkwerkzeug passt im Kontext der Managementdiagnostik besonders gut, da KI nicht nur das Verfahren, sondern auch die Rollen tangiert.
Enhances:
Was KI verstärkt
KI ist imstande, Prozesse innerhalb der diagnostischen Arbeit zu vereinfachen. Sie kann als zusätzliche Bewertende den Menschen in Assessments unterstützen³, reduziert manuell ausgeführte Prozessschritte, hilft beim Transkribieren, Zusammenfassen oder beim Konstruieren von Fragebögen, Fallstudien oder Verhaltensankern. Der Einsatz von KI verspricht Effizienz, Präzision und Fairness. Wo früher viel Energie in die Dokumentation und Protokollierung floss, entsteht Raum für eine stärkere Konzentration auf Interpretation, Hypothesenbildung und die Qualität diagnostischer Urteile.
Und gleichzeitig fordert uns der technologische Fortschritt zur Achtsamkeit auf. Es verstärkt sich der Ruf nach Validität, Rechtskonformität oder auch Ethik. Effizienz und neue Möglichkeiten entbinden nicht von der Pflicht zur diagnostischen Sorgfalt und einem wachen Auge, inwiefern etwa Algorithmen auf fairen und transparent dargelegten Kriterien basieren. Professor Markus Langer, Forscher an der Schnittstelle von Psychologie und Informatik, hält fest, dass schlecht ausgestaltete technologiebasierte Verfahren jeden vermeintlichen Vorteil in sein Gegenteil verwandeln können. In Kürze veröffentlicht er gemeinsam mit Johannes Basch, Professor für Wirtschaftspsychologie, ein umfangreiches Werk zur technologie- und KI-basierten Eignungsdiagnostik (Hogrefe).

Es gibt erste Hinweise darauf, dass Kandidatinnen und Kandidaten KI-basierte Verfahren favorisieren (und vielleicht bald auch fordern): Eine Studie aus 2026 berichtet, dass 78 Prozent der Bewerbenden KI-Agenten gegenüber menschlichen Interviews bevorzugten, wenn sie die freie Wahl hatten⁴. Bewerbende, die vom KI-Agenten interviewt wurden, erhielten signifikant häufiger ein Jobangebot (Angebotsrate), traten die Stelle häufiger an (Jobantritt) und blieben mit höherer Wahrscheinlichkeit im Unternehmen (Verbleib, nach einem Monat). Als mögliche Erklärung sehen die Autoren eine strukturiertere und konsistentere Gesprächsführung durch den KI-Agenten, weniger Verzerrungen durch die interviewende Person und mehr entscheidungsrelevante Informationen.
Obsoletes:
Was KI verdrängt
Erste Hinweise deuten darauf hin, dass sich der Gender Bias, also die bevorzugte Behandlung eines Geschlechts, durch den Einsatz von KI verringern kann. In der Studie von Jabarian und Henkel (2026) halbierte sich die wahrgenommene geschlechterbezogene Diskriminierung durch das Interview mit dem KI-Agenten nahezu.
Zahlreiche Verfahren lassen sich mithilfe generativer KI seitens Bewerbender optimieren. Seien es schriftliche Selbstauskünfte, Persönlichkeitstests, die im Sinne der Stellenausschreibung beantwortet werden, oder nicht überwachte kognitive Leistungstests. Dies ist keine Vermutung, sondern Realität und teils gezielte Manipulation. Nicht jedes Instrument, das bisher funktioniert hat, ist also «KI-robust». Es ist an der Zeit, Verfahrensarchitekturen daraufhin zu prüfen.
Hinzu kommt ein psychologischer Effekt, der in der Praxis oft unterschätzt wird: der Barnum-Effekt. Menschen erleben allgemeine, stimmige und positiv formulierte Aussagen oft als erstaunlich treffend. Generative KI ist genau darin sehr stark. Sie erzeugt anschlussfähigen und gefälligen Output. Das ist kommunikativ hilfreich, diagnostisch aber riskant. Ergebnisberichte und Reports können dadurch tief und individuell wirken, obwohl sie generisch sind. Anders gesagt: KI kann schlechte Diagnostik überzeugender aussehen lassen.
KI unterstützt zunehmend Rekrutierungsprozesse – die Verantwortung bleibt jedoch beim Menschen.
Retrieves:
Was KI zurückbringt
Drehen wir den Spiess um: Inwiefern betont der Einsatz von KI die Bedeutung zwischenmenschlicher Kompetenzen? Inwieweit stärkt sie den Menschen als urteilende Instanz? Eine Hypothese wäre: Je stärker KI die Manipulation von Tests und schriftlichen Selbstauskünften (zum Beispiel Motivationsschreiben oder schriftliche Interviews) erleichtert, desto wertvoller erscheint beobachtbares Verhalten in realitätsnahen Situationen. Was KI (noch) schwer imitieren kann, ist der Umgang mit Widerstand, die Reaktion unter Zeitdruck oder die erfolgreiche Steuerung eines schwierigen Gesprächs, in dem Widersprüche oder Unausgesprochenes im Raum stehen.
Und: Der Mensch übernimmt nach wie vor klar die Verantwortung für den diagnostischen Gesamtprozess. Er verantwortet jene Kernaufgaben, die sowohl in der deutschen Norm⁵ als auch in der Schweizer Norm⁶ als «nicht delegierbar» gelten, sorgt für fachliche Angemessenheit, ein regelgeleitetes Vorgehen, valide Verfahren und die Richtigkeit von Aussagen.
Reverses:
Wann KI «kippt»
McLuhans vierte Frage ist die unbequemste: Was passiert, wenn eine Technologie «überdehnt» wird? Eine schlechte Ausgestaltung oder Qualität kann jeden Vorteil ins Gegenteil kehren. Ein neuralgischer Punkt wäre die fehlende Bereitschaft, das eigene diagnostische Handwerkszeug auf den Prüfstand zu stellen und weitere Kompetenzen aufzubauen, die einen zielführenden Einsatz von KI ermöglichen.

Die Schweizer Norm fordert, dass automatisierte Rückmeldungen und Algorithmen offengelegt werden müssen, damit verantwortliche Personen Berechnungsmechanismen zumindest in Grundzügen nachvollziehen können. Basis hierfür sind die Bereitschaft und die Fähigkeit, dies zu tun. Weitere Desaster drohen, wenn technische Hürden Ergebnisse beeinflussen, Trainingsdaten fehler- oder vorurteilsbehaftet sind, der Datenschutz Lücken aufweist oder die Rechte von Menschen nicht sichergestellt werden können.
KI kippt dort ins Problem, wo sie diagnostische Qualität durch technische Faszination ersetzt. Und dieses Kippen passiert, wenn wir unachtsam sind. Wenn Prozessschritte wegrationalisiert werden, weil ein Algorithmus «das auch kann». Wenn Beobachterschulungen gekürzt werden, weil eine Software das Protokoll übernimmt. Es gibt zu tun, denn KI verändert die Werkzeuge der Diagnostik, nicht aber die Verantwortung für ihre Qualität.
Was gute Diagnostik jetzt braucht
Vermutlich liegt die Zukunft des Assessment Centers weder im rein menschlichen Bauchgefühl noch im vollautomatisierten Urteil. Wahrscheinlicher ist eine diagnostische Praxis, in der Menschen und Systeme enger zusammenarbeiten: mit mehr Verhaltensdaten, mehr Simulationen, multiplen, kürzeren und anforderungsnäheren Formaten⁷, aber auch mit höheren Ansprüchen an Transparenz, Regelklarheit und an ein professionelles Urteilen.
Damit zurück zur Ausgangsfrage: Wer ist im Assessment eigentlich der Cyborg? Vermutlich längst beide Seiten. Die Bewerbenden, weil sie sich technologisch erweitern und die Kraft der KI für sich nutzen. Die Assessierenden, weil sie zunehmend mit KI-gestützten Analysen, Transkripten und Entscheidungshilfen arbeiten. Entscheidend ist nicht, ob wir Cyborgs assessieren. Ausschlaggebend ist, die Verbindung beider Seiten so zu gestalten, dass die diagnostische Qualität nicht nur erhalten bleibt, sondern idealerweise verbessert wird.
Anmerkung und Quellen
*Als Cyborg (engl. cybernetic organism) bezeichnet man ein Lebewesen, das durch Technik ergänzt wird und die Erweiterung menschlicher Fähigkeiten oder auch eine Leistungssteigerung ermöglicht.
Quellen:
¹ Zemp, M. (2023). Zwischen KI und Bauchgefühl: Wie sieht die Personalselektion in Zukunft aus? Masterarbeit Universität Luzern.
² McLuhan, M., & McLuhan, E. (1988). Laws of media: The new science. University of Toronto Press.
³ Hickman, L., Herde, C. N., Lievens, F., & Tay, L. (2023). Automatic scoring of speeded interpersonal assessment center exercises via machine learning: Initial psychometric evidence and practical guidelines. International Journal of Selection and Assessment, 31, 225–239. https://doi.org/10.1111/ijsa.12418
⁴ Jabarian, B., & Henkel, L. (2026, January 26). Voice AI in firms: A natural field experiment on automated job interviews. SSRN. https://ssrn.com/abstract=5395709
⁵ DIN Deutsches Institut für Normung e. V. (2016). DIN 33430:2016-07 – Anforderungen an berufsbezogene Eignungsdiagnostik. Beuth Verlag.
⁶ Schweizerische Normen-Vereinigung (SNV). (2024). SN 33430:2024 – Anforderungen an berufsbezogene Eignungsdiagnostik. Schweizerische Normen-Vereinigung.
⁷ Herde, C. N., & Lievens, F. (2023). Multiple, speeded assessments under scrutiny: Underlying theory, design considerations, reliability, and validity. Journal of Applied Psychology.