Man denkt, man sei mit der Bewerbung endlich einen Schritt weiter. Lebenslauf abgeschickt, Erfahrung dargelegt, vielleicht sogar ziemlich genau auf die Stelle gepasst. Nach über 20 Jahren Berufspraxis, diversen Erfolgsgeschichten und dem begründeten Gefühl, komplexe Probleme nicht nur theoretisch, sondern ganz real lösen zu können, rechnet man irgendwann nicht mehr mit Überraschungen. Und dann kommt sie doch: die freundliche Einladung zum Online-Assessment.
In meinem Fall über die Plattform von ELIGO Psychologische Personalsoftware GmbH. Offiziell geht es um Objektivität, Vergleichbarkeit, Effizienz und treffsichere Prognosen. Das klingt in der PowerPoint erst einmal wunderbar. In der Praxis fühlt es sich für viele Bewerber allerdings eher an wie die digitalisierte Version eines Türstehers, der nicht fragt, was du kannst, sondern wie elegant du unter Zeitdruck Musterreihen jonglierst.
Bevor hier ein falscher Eindruck entsteht: Ja, ich bin frustriert. Ja, meine Ergebnisse in diesem Assessment sind – freundlich formuliert – miserabel ausgefallen. Das lässt sich schwer schönreden. Und doch soll dieser Text kein Rant sein. Es geht nicht darum, ein bestimmtes Unternehmen oder ein bestimmtes Tool an den Pranger zu stellen. Mich interessiert vielmehr eine andere Frage: Ob die Optimierungslogik moderner Recruitingprozesse möglicherweise gelegentlich an der falschen Stelle filtert.
Denn wenn ein Verfahren Menschen aussortiert, deren Kompetenzprofil in der Praxis durchaus selten ist, dann lohnt sich zumindest ein kurzer Moment des Nachdenkens. Nicht aus persönlicher Kränkung heraus, sondern aus systemischer Perspektive.
Wenn der Bewerbungsprozess plötzlich nichts mehr mit dem Job zu tun hat
Es ist schon eine eigentümliche Verschiebung: Da sitzt jemand mit belastbarer Berufserfahrung, nachweisbaren Erfolgen, Krisenfestigkeit, fachlicher Tiefe und realen Lösungskompetenzen vor einem Test, der Fragen stellt, die mit der eigentlichen Tätigkeit nur lose verwandt sind. Zahlenreihen. Matrizen. Wortanalogien. Situative Mini-Szenarien mit Mehrfachauswahl. Alles hübsch standardisiert, alles psychometrisch geschniegelt, alles angeblich objektiv.
Nur leider auch oft erstaunlich weit entfernt von der eigentlichen Arbeit.
Wer seit Jahren in seinem Fachgebiet arbeitet, erwartet keine akademische Schnitzeljagd, sondern irgendeine Form von Prüfung, die mit der realen Tätigkeit zu tun hat. Wie analysierst du ein Problem? Wie priorisierst du Anforderungen? Wie gehst du mit Zielkonflikten um? Wie argumentierst du unter Unsicherheit? Wie bringst du Erfahrung in neue Kontexte ein?
Stattdessen tauchen Beispiele aus völlig anderen Domänen auf. Aktienanalysen etwa. Oder Szenarien zur Auslastung von Hotels. Das sind sicher spannende Themen – für Menschen, die sich professionell mit Finanzmärkten oder Tourismus beschäftigen. Ich überlasse Aktienanalysen gern denen, die daran Freude haben und die entsprechende Expertise besitzen, genauso wie die strategische Optimierung von Hotelbelegungen.
Als technisch arbeitender Ingenieur sind das jedoch schlicht keine Themen, mit denen ich mich im Berufsalltag befasse. Meine Arbeit besteht darin, technische Systeme zu verstehen, Fehlerbilder zu analysieren, Architekturentscheidungen abzuwägen, Risiken frühzeitig zu erkennen und Probleme zu lösen, die selten in Multiple-Choice-Form auftreten.
Wenn ein Assessment solche fachlichen Kontexte ignoriert, misst es nicht Problemlösungskompetenz. Es misst lediglich, wie gut jemand mit einem bestimmten Testformat umgehen kann.
Vier Kennzahlen sollen plötzlich ein ganzes Kompetenzprofil erklären
Der eigentlich irritierende Moment kommt jedoch erst danach. Am Ende des Tests stehen ein paar Kennzahlen. Vier Werte. Sauber visualisiert, hübsch in Diagrammen aufbereitet, scheinbar objektiv.
Diese wenigen Zahlen sollen plötzlich Aussagen darüber treffen, wie jemand arbeitet, denkt oder entscheidet. Analytisch oder intuitiv. Strukturiert oder kreativ. Detailorientiert oder strategisch. Kurz gesagt: Sie sollen fachliche Präferenzen und Arbeitsweisen beschreiben.
Das wirkt auf den ersten Blick beeindruckend datengetrieben. In der Praxis fühlt es sich eher an wie eine erstaunlich grobe Reduktion komplexer Erfahrung.
Denn wer zwanzig Jahre reale Probleme gelöst hat, weiß, dass Arbeitsweise stark vom Kontext abhängt. Mal braucht es tiefgehende Analyse, mal pragmatische Abkürzungen. Manchmal entscheidet man intuitiv, manchmal datengetrieben. Manchmal strukturiert, manchmal improvisierend. Gute Problemlöser wechseln ihre Strategien je nach Situation.
Vier Kennzahlen können diese Dynamik kaum abbilden. Sie bilden bestenfalls eine Momentaufnahme der Testperformance ab – nicht jedoch die tatsächliche Arbeitsweise eines erfahrenen Spezialisten.
Das eigentliche Paradox: Gute Problemlöser können im Test schlecht aussehen
Das führt zu einem paradoxen Effekt: Menschen, die im realen Arbeitskontext über Jahre hinweg komplexe Probleme lösen, können in solchen Assessments erstaunlich schlecht abschneiden.
Nicht unbedingt, weil ihnen Fähigkeiten fehlen. Sondern weil das Testformat andere Fähigkeiten priorisiert:
Geschwindigkeit statt Tiefe. Mustererkennung statt Kontextverständnis. Standardisierte Antwortlogik statt offener Problemlösung.
Wer gewohnt ist, Probleme gründlich zu durchdenken, Hypothesen zu prüfen und Lösungen systematisch zu entwickeln, wirkt unter striktem Zeitdruck plötzlich langsamer. Wer komplexe Systeme analysiert, ist nicht unbedingt der Schnellste bei abstrakten Mini-Rätseln.
Hinzu kommt ein weiterer Punkt, der erstaunlich altmodisch wirkt: die massive Überbewertung von Kopfrechnen. In vielen numerischen Tests geht es darum, möglichst schnell Ergebnisse im Kopf zu berechnen. Das mag in einer Schulprüfung sinnvoll erscheinen. In der Realität moderner Wissensarbeit wirkt es jedoch fast anachronistisch.
Ingenieure, Analysten oder Entwickler lösen Probleme selten durch blitzschnelles Kopfrechnen. Sie nutzen Werkzeuge. Taschenrechner. Tabellenkalkulationen wie Microsoft Excel. Simulationen. Skripte. Modelle. Genau diese Werkzeuge ermöglichen es überhaupt erst, komplexe Systeme präzise zu analysieren.
Wenn ein Assessment hingegen stark darauf setzt, wie schnell jemand Zahlen im Kopf multiplizieren oder Prozentwerte abschätzen kann, misst es eine Fähigkeit, die im realen Arbeitskontext kaum noch isoliert relevant ist. Es ist ungefähr so, als würde man einen Softwareentwickler danach bewerten, wie schnell er Binärcode auf Papier addieren kann.
Das ist ungefähr so sinnvoll, als würde man einen erfahrenen Mechaniker danach auswählen, wie schnell er ein Sudoku löst. Er mag das können. Muss er aber nicht. Und selbst wenn er darin schlecht ist, sagt das erstaunlich wenig darüber aus, ob er Maschinen versteht.
Zeitdruck als versteckter Bewertungsfaktor
Ein weiterer Faktor ist der Zeitdruck. Viele Online-Assessments arbeiten mit strikt begrenzten Bearbeitungszeiten. Die Idee dahinter: spontane Antworten liefern ein unverfälschtes Bild.
In der Praxis erzeugt Zeitdruck jedoch einen zusätzlichen Messfaktor: Stress.
Gerade bei Menschen, die analytisch arbeiten oder komplexe Zusammenhänge durchdringen wollen, führt Zeitdruck häufig zu schlechteren Ergebnissen. Nicht weil die Lösungskompetenz fehlt, sondern weil das Format eine andere Arbeitsweise erzwingt.
Der Karriereleitfaden der University of Cambridge weist beispielsweise darauf hin, dass psychometrische Tests meist zeitlich begrenzt sind und dass neurodivergente Bewerber durch Formulierung, Präsentation und Zeitdruck benachteiligt werden können. Empfohlen werden Anpassungen wie zusätzliche Zeit oder alternative Testformen Guide der University of Cambridge.
Und dann kommt noch die Realität moderner Wissensarbeit hinzu
Kaum jemand löst komplexe Probleme völlig isoliert im Kopf. Man recherchiert, strukturiert, simuliert, nutzt Tools, diskutiert Optionen, fragt Modelle wie ChatGPT nach Alternativen oder Gegenargumenten.
Genau das ist heute Teil produktiver Arbeit.
Online-Assessments hingegen simulieren oft eine Welt, in der jemand allein unter Zeitdruck und ohne Hilfsmittel abstrakte Aufgaben lösen muss. Das mag für bestimmte kognitive Tests sinnvoll sein. Für die Bewertung realer Problemlösungskompetenz ist es jedoch ein erstaunlich künstliches Szenario.
Vielleicht sagt das Assessment mehr über das Verfahren als über den Bewerber
Wenn ein erfahrener Problemlöser in einem solchen Test schlecht abschneidet, bedeutet das nicht zwangsläufig, dass seine Fähigkeiten gering sind.
Es kann ebenso bedeuten, dass das Verfahren etwas völlig anderes misst als die tatsächliche Kompetenz.
Und genau darin liegt der eigentliche Gedanke dieses Artikels. Nicht im persönlichen Ärger über ein schlechtes Testergebnis, sondern in der Frage, ob Recruitingverfahren manchmal genau die Kandidaten herausfiltern, deren Kompetenzprofil in der Praxis besonders wertvoll sein könnte.
Mein eigenes Wissensprofil ist sicherlich kein Massenprodukt. Die Kombination aus technischer Tiefe, systemischem Denken, Erfahrung aus unterschiedlichen Projekten und der Fähigkeit, komplexe Probleme strukturiert zu lösen, entsteht nicht über Nacht – und auch nicht im Schnellverfahren. Solche Profile entwickeln sich über viele Jahre praktischer Arbeit.
Wenn ein halbstündiger Test mit vier Kennzahlen dieses Profil nicht erkennt, dann ist das vielleicht weniger eine Aussage über den Kandidaten als über das Messinstrument.
Fazit
Automatisierte Assessments versprechen Effizienz, Vergleichbarkeit und datenbasierte Entscheidungen. In der Praxis reduzieren sie jedoch häufig komplexe berufliche Erfahrung auf wenige Messwerte.
Für Berufseinsteiger mag das funktionieren. Für erfahrene Spezialisten kann es zu einer seltsamen Situation führen: Man bringt nachweisbare Problemlösungskompetenz mit – und scheitert trotzdem an einem Test, der diese Fähigkeit kaum abbildet.
Dann bleibt am Ende eine einfache, aber unangenehme Frage: Misst das Assessment wirklich die Kompetenz des Bewerbers – oder nur seine Fähigkeit, ein bestimmtes Testformat zu bestehen?
