KI wird derzeit vor allem als Effizienzmaschine erzählt. Weniger Aufwand, mehr Output, schnellere Ergebnisse. Die Folien dazu sehen überzeugend aus. Die Realität ist, wie so oft, etwas komplizierter. Aber wie steht es mit der KI-Effizienz?
Diese Artikelserie nimmt genau diese Effizienzversprechen auseinander – nicht polemisch, sondern betriebswirtschaftlich. Schritt für Schritt wird durchgerechnet, welche Effekte tatsächlich entstehen, welche Kosten regelmäßig übersehen werden und welche organisatorischen Veränderungen notwendig sind, damit KI überhaupt sinnvoll betrieben werden kann.
Der Aufbau der Serie folgt dabei einer einfachen Logik:
- Teil 1: Die Grundrechnung – wie viel Effizienz tatsächlich entsteht
- Teil 2: Die versteckten Zusatzkosten – was in Business Cases gern fehlt
- Teil 3: Organisation – warum Effizienz an Strukturen scheitert
- Teil 4: Risiken und Nebenwirkungen – was passiert, wenn man zu optimistisch rechnet
Es geht dabei nicht darum, KI schlechtzureden. Es geht darum, sie ernst zu nehmen. Und ernst nehmen heißt: nicht nur den Nutzen zu betrachten, sondern auch Aufwand, Risiken, Nebenwirkungen und Opportunitätskosten.
Wer nur die eingesparte Bearbeitungszeit sieht, sieht nur einen Teil der Rechnung. Der Rest folgt jetzt.
Über die Opportunitätskosten von KI habe ich an anderer Stelle bereits geschrieben. Also über genau jene hübsche Verschiebung von Arbeit, die in PowerPoint-Folien gern als „Effizienzgewinn“ verkauft wird, während in der Realität neue Routinen, zusätzliche Kontrollschleifen und neue Verantwortlichkeiten entstehen.
Diesmal machen wir etwas Unhöfliches: Wir rechnen das Ganze einmal in Geld durch.
Nicht polemisch. Nur mit Zahlen. Wobei Zahlen bekanntlich eine unangenehme Eigenschaft haben: Sie beleidigen jedes Narrativ, das zu früh gefeiert wurde. Schauen wir sie uns also an, die KI-Effizienz.
1. Das Ausgangsbeispiel
Wir nehmen eine fiktive (aber durchaus realistische) Analyseabteilung für Finanzprodukte. 100 Mitarbeiter analysieren pro Monat 2.000 Finanzprodukte, also im Schnitt 20 Analysen pro Mitarbeiter und Monat.
Das Beispiel ist dabei nicht völlig aus der Luft gegriffen, auch wenn die konkreten Zahlen natürlich modellhaft sind. Die zugrunde liegende Logik lässt sich ohne Weiteres auf andere Tätigkeiten übertragen – etwa auf die Erstellung von Software-Code, die Bearbeitung von Dokumenten oder andere wissensintensive Prozesse mit ähnlichen Kontroll- und Qualitätsanforderungen.
Damit wir nicht so tun müssen, als arbeite hier ein Heer ehrenamtlicher Idealisten, setzen wir für einen Mitarbeiter eine realistische Vollkostenbetrachtung von 7.000 Euro pro Monat an. Darin enthalten sind Gehalt, Arbeitgeberanteile, Arbeitsplatz, IT, Overhead und der ganze Rest, der im echten Leben leider ebenfalls Geld kostet.
| Mitarbeiter | 100 |
| Analysen pro Monat | 2.000 |
| Vollkosten pro Mitarbeiter/Monat | 7.000 Euro |
| Gesamtkosten pro Monat | 700.000 Euro |
| Gesamtkosten pro Jahr | 8.400.000 Euro |
| Kosten pro Analyse | 350 Euro |
Manuell liegt der Kontrollaufwand bei ungefähr 10 Prozent. Das ist klassische Qualitätssicherung. Nicht kostenlos, aber beherrschbar.
2. Jetzt kommt die KI
Nun führen wir KI ein. Der eigentliche Bearbeitungsaufwand sinkt deutlich. Für Prompting, Datenorganisation und das Bedienen des Systems setzen wir einmal großzügig 20 Prozent des bisherigen menschlichen Aufwands an. Klingt erstmal großartig.
Nur bleibt die Sache leider nicht dabei. Denn die Ergebnisse der KI wollen gelesen, durchdacht, plausibilisiert und fachlich geprüft werden. Und genau hier steigt der Kontrollaufwand von bisher 10 Prozent auf 30 Prozent – während das Durchdenken und Prüfen bei der manuellen Analyse bereits integraler Bestandteil der Tätigkeit ist und nicht separat anfällt, müssen die KI-generierten Analysen gründlich1 geprüft werden.
Damit liegt der gesamte menschliche Aufwand pro Analyse nicht mehr bei 100 Prozent, sondern bei:
- 20 Prozent KI-Steuerung, Datenaufbereitung und Vorarbeit
- 30 Prozent Kontrolle, Plausibilisierung und fachliche Prüfung
Macht zusammen 50 Prozent Restaufwand je Analyse.
Was diese Rechnung bewusst vereinfacht: Diese Werte sind keine Konstanten, sondern variabel. Sie hängen unter anderem ab von:
- der Komplexität der Aufgabe
- der Qualität der Eingaben (Prompts, Daten, Kontext)
- der Stabilität und Version des verwendeten Modells
- der Erfahrung der Mitarbeiter im Umgang mit der KI
In der Praxis bedeutet das: Der Anteil für Steuerung und Kontrolle schwankt. Ein guter Prompt kann Aufwand reduzieren, ein schlechter kann mehrere Iterationen erzeugen. Ergebnisse müssen nachgeschärft, Kontext ergänzt und Annahmen überprüft werden. Ein Teil der vermeintlich eingesparten Bearbeitungszeit wird dadurch bereits im Vorfeld wieder verbraucht.
Hinzu kommt ein struktureller Unterschied zur manuellen Arbeit: Die Tätigkeit verschiebt sich vom Erstellen hin zum Bewerten und Freigeben. Das erhöht nicht nur den Kontrollaufwand, sondern auch die Verantwortung pro Entscheidung. Was plausibel klingt, ist nicht automatisch korrekt – und genau diese Unsicherheit muss aufgefangen werden.
Auch die Effizienz selbst ist nicht stabil, sondern entwickelt sich:
- Mit wachsender Erfahrung können Steuerungs- und Kontrollaufwände sinken
- Neue Modelle, geänderte Trainingsdaten oder strategische Anpassungen können sie jedoch wieder erhöhen
Effizienz verläuft damit nicht linear, sondern eher in Zyklen aus Lernen, Vertrauen und erneuter Absicherung.
Das ist der Punkt, an dem das übliche „80 Prozent effizienter!“ bereits mit der ersten Tabellenkalkulation kollidiert. Denn wenn der menschliche Restaufwand pro Analyse im Mittel bei etwa 50 Prozent liegt – mit entsprechender Streuung nach oben und unten – dann verdoppelt sich die Kapazität rechnerisch bestenfalls. Nicht verfünffacht sie sich. Nicht verzehnfacht sie sich. Und auch nicht deshalb, weil irgendwo das Wort „Pareto2“ gefallen ist.
Und genau hier beginnen die Opportunitätskosten: Die eingesparte Bearbeitungszeit wird nicht automatisch zu freier Effizienz. Sie wird durch zusätzlichen Kontroll-, Iterations-, Koordinations-, Governance- und Betriebsaufwand teilweise wieder aufgefressen.
3. Was heißt das konkret?
Wenn 100 Mitarbeiter manuell 2.000 Analysen pro Monat schaffen und mit KI pro Analyse im Mittel etwa 50 Prozent menschlicher Restaufwand anfällt, dann schaffen dieselben 100 Mitarbeiter rechnerisch:
2.000 / 0,5 = 4.000 Analysen pro Monat
Das ist zunächst eine Durchschnittsbetrachtung auf Basis der zuvor getroffenen Annahmen. In der Praxis wird dieser Wert schwanken – je nach Aufgabenkomplexität, Qualität der Eingaben, Stabilität der eingesetzten Modelle und Erfahrung der Mitarbeiter. Einzelne Analysen können deutlich schneller gehen, andere erfordern mehrere Iterationen, zusätzliche Prüfungen oder Nacharbeit.
Die 4.000 Analysen sind damit kein fixer Zielwert, sondern ein orientierender Mittelwert unter idealisierten Bedingungen. Realistisch bewegt sich die tatsächliche Leistung um diesen Wert herum – mal darüber, mal darunter.
Ein zusätzlicher Einflussfaktor kommt hinzu: Die tatsächliche Leistungsfähigkeit hängt nicht nur von der Aufgabe ab, sondern auch vom Zusammenspiel aus Modellqualität und Erfahrungsstand der Mitarbeiter.
Verbesserte Modelle können den Aufwand reduzieren. Gleichzeitig können Modellwechsel neue Verhaltensweisen, veränderte Ergebnisqualitäten oder neue Fehlerbilder mit sich bringen, die zunächst wieder zusätzlichen Prüfaufwand erzeugen. Jede neue Version verschiebt damit nicht nur die Effizienz, sondern auch die Anforderungen an Kontrolle und Bewertung.
Umgekehrt steigt mit wachsender Erfahrung die Effizienz im Umgang mit bestehenden Systemen – etwa durch bessere Eingaben, strukturierteren Umgang mit Ergebnissen und schnellere fachliche Einordnung. Dieser Effekt wird jedoch regelmäßig durch technologische Veränderungen relativiert, die neue Anpassungsschleifen erforderlich machen.
In der Praxis überlagern sich diese Effekte: Effizienzgewinne durch Lernen werden durch Modelländerungen teilweise wieder aufgehoben. Produktivität entwickelt sich damit nicht linear, sondern in einem Spannungsfeld aus Lernkurve und Systemdynamik.
Und vor allem: Dieser Wert entsteht nicht allein durch die Reduktion der Bearbeitungszeit, sondern unter Berücksichtigung der zusätzlichen Aufwände für Steuerung, Iteration, Kontrolle und Absicherung.
Also nicht 10.000, wie es eine naive Fortschreibung der „nur noch 20 Prozent Aufwand“-Logik nahelegen würde. Sondern im Mittel etwa 4.000. Das ist immer noch viel. Aber eben nicht magisch.
4. Szenario 1: Wir sparen Personal ein
Hier wird es unerquicklich. Oder, etwas freundlicher formuliert: Das ist die offensichtlichste („most obvious“) Variante – zumindest auf den ersten Blick.
Wenn wir trotz KI weiterhin nur 2.000 Analysen pro Monat brauchen, dann reicht rechnerisch die halbe Personalstärke. Man bräuchte also 50 statt 100 Mitarbeiter.
Die häufig anzutreffende Idee, man könne gleich auf 20 Mitarbeiter runtergehen und den Rest der Abteilung zur Folklore erklären, scheitert schon an der Grundrechenart:
20 / 100 × 4.000 = 800 Analysen pro Monat
Also nicht 2.000. Sondern 800. Das ist kein Transformationswunder. Das ist Unterdeckung mit optimistischer Begleitmusik.
| Mitarbeiter nach KI | 50 |
| Personalkosten pro Monat | 350.000 Euro |
| Personalkosten pro Jahr | 4.200.000 Euro |
| Analysen pro Jahr | 24.000 |
Dass diese Variante so naheliegend wirkt, liegt daran, dass sie eine einfache Logik verfolgt: weniger Aufwand pro Einheit führt zu weniger benötigtem Personal. Was dabei ausgeblendet wird, sind genau jene Effekte, die wir zuvor betrachtet haben – variabler Kontrollaufwand, Iterationen, Koordination und organisatorische Reibung.
Auf dem Papier spart das gegenüber dem manuellen Ausgangszustand 4,2 Millionen Euro pro Jahr. Auf dem Papier ist bekanntlich fast alles schön. Nur ist das eben noch nicht die ganze Rechnung.
5. Szenario 2: Wir behalten die 100 Mitarbeiter und skalieren
Die alternative (sozialverträglichere) Erzählung lautet meist: Wir entlassen niemanden, sondern machen mit denselben 100 Mitarbeitern einfach mehr. Das ist der sympathischere Satz für Konferenzen, Betriebsversammlungen und LinkedIn.
Und fairerweise: Das ist zunächst eine durchaus reflektierte Denkweise. Sie vermeidet vorschnelle Personalentscheidungen, berücksichtigt Unsicherheiten in der Effizienzentwicklung und setzt darauf, Produktivitätsgewinne zunächst im System zu halten.
Allerdings ist auch diese Logik nicht frei von Fallstricken.
Rechnerisch wären das dann, wie gezeigt, 4.000 statt 2.000 Analysen pro Monat. Auch hier gilt: nicht 10.0003. Denn Kontrolle frisst Kapazität. Und zwar nicht symbolisch, sondern tatsächlich.
Das bedeutet aber auch: Die Abteilung produziert zwar mehr Output, doch der Kontroll- und Prüfaufwand wächst mit. KI skaliert eben nicht nur Produktion, sondern auch Prüfpflicht. Überraschend ist daran eigentlich nur, dass das immer wieder überrascht.
Hinzu kommt ein weiterer Punkt: Mehr Output ist nicht automatisch mehr Wert. Wenn zusätzliche Analysen keinen entsprechenden Nutzen erzeugen, wächst zwar die Aktivität – nicht aber die wirtschaftliche Relevanz.
Welche Folgen sich daraus für die Jobprofile der Mitarbeiter ergeben – also für die Verschiebung vom inhaltlich arbeitenden Ersteller hin zum prüfenden Kontrolleur –, bleibt in dieser Rechnung noch unberücksichtigt. Ebenso wenig eingepreist sind Ermüdungseffekte aus dauerhaft repetitiver Kontrollarbeit sowie potenziell steigende Fehlerzahlen, gerade dort, wo Fehler infolge von Routine, Monotonie oder übersehenen Abweichungen eben nicht sinken, sondern steigen.
6. Was diese erste Rechnung bereits zeigt
1.: KI senkt nicht automatisch den Gesamtaufwand. Sie verschiebt ihn.
2.: Ein erheblicher Teil der eingesparten Bearbeitungszeit wird durch Kontrolle, Iteration, Abstimmung und zusätzliche Prozessschritte kompensiert.
3.: Die oft behauptete exponentielle Effizienzsteigerung reduziert sich bei realistischer Betrachtung auf eine Verdopplung der Kapazität – im besten Fall.
4.: Die zentrale betriebswirtschaftliche Größe ist nicht der theoretische Bearbeitungsanteil, sondern der tatsächliche Gesamtaufwand inklusive Kontrolle, Steuerung und Absicherung.
5.: Die zugrunde liegenden Effizienzwerte sind keine Konstanten, sondern variabel. Sie hängen von Aufgaben, Modellqualität und Erfahrungsstand ab – und können sich im Zeitverlauf sowohl verbessern als auch wieder verschlechtern.
6.: Effizienz entwickelt sich nicht linear. Lerngewinne im Umgang mit der KI werden durch Modelländerungen, neue Fehlerbilder oder veränderte Rahmenbedingungen regelmäßig relativiert.
7.: Die Tätigkeit verschiebt sich vom Erstellen hin zum Bewerten und Freigeben. Damit steigt nicht nur der Kontrollaufwand, sondern auch die Verantwortung pro Entscheidung – und damit indirekt die notwendige Prüfungstiefe.
8.: Unsicherheit bleibt ein struktureller Bestandteil der Arbeit. Plausible Ergebnisse sind nicht automatisch korrekt, was zusätzlichen Prüfaufwand und vorsichtigeres Arbeiten erforderlich macht.
9.: Die eingesparte Bearbeitungszeit ist kein Gratisgewinn, sondern erzeugt Opportunitätskosten – sie wird durch zusätzliche Anforderungen an Betrieb, Koordination und Governance teilweise wieder aufgezehrt.
Die eigentliche Erkenntnis lautet damit nicht, dass KI keinen Effizienzgewinn erzeugt. Den erzeugt sie durchaus. Die entscheidende Erkenntnis lautet: Der Effizienzgewinn ist deutlich kleiner, instabiler und kontextabhängiger, sobald man den menschlichen Restaufwand ernst nimmt.
7. Ausblick
Bis hierhin haben wir nur die Grundmechanik betrachtet. Also die Frage, was von den viel zitierten Effizienzgewinnen übrig bleibt, wenn man den menschlichen Restaufwand realistisch einpreist.
Was wir noch nicht berücksichtigt haben, sind all jene Zusatzkosten, die in der schönen KI-Geschichte gern in Fußnoten verschwinden: Schulung, Compliance, Lizenzen, Assessments, Cybersecurity, Betrieb und organisatorischer Umbau.
Oder anders gesagt: Alles, was nötig ist, damit das System nicht nur funktioniert, sondern auch verantwortbar betrieben werden kann.
Genau darum geht es im nächsten Teil.

