Wer KI einführt, muss allerdings nicht nur zusätzliche Kosten verwalten, sondern die Organisation selbst umbauen. Und zwar nicht kosmetisch, sondern strukturell. Sonst passiert etwas, das in erstaunlich vielen Unternehmen bereits zuverlässig zu beobachten ist: Die Organisation baut keinen produktiven KI-Einsatz auf, sondern einen Verwaltungsapparat rund um die Idee von KI. KI-Effizienz von einer anderen Seite betrachtet.
Mit anderen Worten: Nicht die Technologie wird zum Problem, sondern das Management ihrer eigenen Begeisterung.
Und dieser Verwaltungsapparat entsteht nicht im luftleeren Raum. Er speist sich ganz konkret aus zusätzlichen Abstimmungen, neuen Schnittstellen, formalisierter Anforderungsdefinition, erweiterten Dokumentationspflichten und zunehmendem Koordinationsbedarf – also genau aus jenen Tätigkeiten, die zuvor oft informell, implizit oder „per Zuruf“ funktioniert haben.
1. Das Management-Paradoxon
Ein besonders typischer Fehlstart besteht darin, eine ganze Armada an Rollen zu schaffen, die über KI sprechen, während die eigentliche Umsetzung personell dünn, diffus oder geradezu beleidigend unterbesetzt bleibt.
Dann entstehen Konstellationen, in denen Chief-irgendwas, Steuerungsgremien, Lenkungskreise und Strategierunden über KI diskutieren, während die tatsächliche operative Arbeit bei genau einer Person landet – nicht selten bei jener, die am wenigsten Entscheidungsmacht, aber dafür den größten praktischen Druck hat.
Dieses Muster ist kein Zufall, sondern die praktische Ausprägung eines organisatorischen Ungleichgewichts: zu viel Verwaltung, zu wenig Anwendung.
Ein zusätzlicher, oft übersehener Aspekt: Rollen müssen nicht nur definiert, sondern auch unabhängig von konkreten Personen und Hierarchien wirksam gemacht werden. Wer für Kontrolle, Compliance oder Qualität verantwortlich ist, darf nicht gleichzeitig von genau den Strukturen abhängig sein, die er überprüfen soll.
In der Praxis bedeutet das:
- klare Trennung von Ausführung und Kontrolle
- fachliche Weisungsbefugnisse, die nicht an Linienhierarchien scheitern
- Rollen, die nicht nur existieren, sondern auch durchsetzungsfähig sind
Ohne diese Unabhängigkeit entstehen genau jene Situationen, in denen Probleme zwar erkannt, aber nicht adressiert werden – weil sie organisatorisch nicht adressierbar sind.
Die Organisation braucht deshalb nicht noch eine weitere Meeting-Serie, sondern ein korrigiertes Verhältnis zwischen Steuerung und Umsetzung. KI muss als Werkzeug für reale Arbeit eingesetzt werden, nicht als Anlass für zusätzliche Selbstbesprechung.
2. Weg vom Sprechen, hin zum Tun
Das typische Organigramm einer sogenannten KI-Reise ist oft bemerkenswert asymmetrisch: Strategen, Ethikrollen, Steuerungsfunktionen, Auditoren, Beauftragte und Gremien sind reichlich vorhanden. Die eigentliche operative Umsetzung hingegen ist personell erstaunlich unterernährt.
Das Problem ist dabei nicht Governance an sich, sondern ihr Verhältnis zur tatsächlichen Wertschöpfung. Eine Organisation, in der fast alle mit der Organisation von KI beschäftigt sind und kaum jemand mit ihrer produktiven Nutzung, baut kein Effizienzprogramm auf, sondern eine Verwaltungsschicht.
Und betriebswirtschaftlich wird das noch konkreter: Ein erheblicher Teil dieser Tätigkeiten ist nicht direkt wertschöpfend. Sie sind notwendig, sie sind oft unvermeidlich – aber sie sind in vielen Modellen eben auch nicht „billable“. Sie erzeugen keinen unmittelbaren Output, keine direkt verrechenbare Leistung, sondern sichern, dokumentieren, koordinieren und verwalten.
Das ist kein Argument gegen diese Tätigkeiten. Es ist ein Argument dafür, sie als das zu behandeln, was sie sind: notwendiger Overhead. Und Overhead ist per Definition genau das, was Effizienzgewinne relativiert.
Der Änderungsbedarf ist daher klar: operative Rollen müssen gestärkt werden. Nicht nur durch ein dekoratives Center of Excellence, sondern durch reale Kompetenz in der Breite der Belegschaft.
3. Professionalisierung statt Praktikanten-Lösung
Eine weitere Unsitte besteht darin, Verantwortung formal nach oben zu ziehen, operative Lieferung aber nach unten durchzureichen. Dann redet die Organisation aufwendig über Compliance, Haftung, Verantwortung und Qualität – und am Ende soll jemand ohne ausreichende Einbindung, Ausbildung oder Befugnis die Sache schon irgendwie ans Laufen bringen.
Das ist organisatorisch billig gedacht und betriebswirtschaftlich regelmäßig teuer. Denn diffuse Verantwortung produziert genau jene Fehler, Nacharbeiten und Eskalationen, die später als unerwartete Komplexität beklagt werden.
In diesem Zusammenhang taucht regelmäßig ein weiterer Fehlschluss auf: das gezielte Zurückgreifen auf (fertige) Studenten oder Berufseinsteiger, oft mit der impliziten Annahme, dass deren „Wissensaktualität“ den Einsatz von KI besonders gut unterstützen würde.
Das Problem dabei ist weniger die fachliche Frische als die fehlende Einbettung in reale Kontexte. Organisatorische Abläufe, bestehende Prozesse, gewachsene Strukturen und nicht zuletzt das konkrete Produkt sind Absolventen naturgemäß unbekannt. Was intern oft implizit funktioniert, muss erst verstanden werden, bevor es sinnvoll mit KI unterstützt werden kann.
Hinzu kommt ein zweiter, oft unterschätzter Punkt: Die Fähigkeit zur Abstraktion, zur Einordnung von Ergebnissen und zum Weiterdenken entsteht in der Regel erst durch Erfahrung mit vergleichbaren Fragestellungen. Genau diese Erfahrung fehlt naturgemäß am Anfang der Laufbahn.
In der Praxis zeigt sich deshalb häufig das Gegenteil der ursprünglichen Annahme: Erfahrung und Neugier schlagen Aktualität. Wer ein Problem strukturell verstanden hat, kann sich neue Werkzeuge und Methoden in der Regel schneller und nachhaltiger erschließen als jemand, der zwar aktuelle Begriffe kennt, aber den Kontext nicht einordnen kann.
Gerade im Compliance-Umfeld wird das besonders deutlich. Dort gilt oft: Kennst du einen Standard, kannst du andere Standards schneller erlernen. Entscheidend ist nicht das Auswendiglernen einzelner Regelwerke, sondern das Verständnis ihrer Logik, ihrer Struktur und ihrer Zielsetzung.
Hinzu kommt eine doppelte Anforderung, die in vielen Diskussionen unterschätzt wird: Es braucht gleichzeitig Kenntnisse in regulatorischen Anforderungen (also Paragraphen, Normen, Prüfanforderungen) und im fachlichen Inhalt (z. B. Technik, Produkte oder Analysen). Wer nur eine Seite versteht, wird weder Ergebnisse sinnvoll erzeugen noch zuverlässig bewerten können.
Das Ergebnis ist sonst kein Effizienzgewinn, sondern ein zusätzlicher Lern- und Abstimmungsaufwand – oft kombiniert mit der Erwartung, dass genau diese Rolle gleichzeitig operative Ergebnisse liefern soll.
Was es stattdessen braucht, sind qualifizierte Fachrollen, klare Führungsverantwortung und eine saubere Zuordnung der Themen Compliance, Sicherheit, Betrieb und Fachlichkeit. Diese Aufgaben dürfen nicht ins Nebensächliche abwandern oder als loses Ehrenamt innerhalb der Organisation behandelt werden.
4. Realistische Kapazitätsplanung statt Effizienzfolklore
Organisatorisch muss vor allem verstanden werden, dass KI Arbeit nicht einfach verschwinden lässt, sondern umbaut.
Wenn pro Analyse weiterhin rund 50 Prozent menschlicher Restaufwand anfallen, dann ist das keine Nebensache, sondern die zentrale Steuerungsgröße. Wer trotzdem so plant, als genügten 20 Prozent des ursprünglichen Personals, verwechselt den theoretischen Bearbeitungsanteil mit dem gesamten realen Leistungsbedarf.
Genau deshalb führt eine zu radikale Personalreduktion nicht zu schlanker Effizienz, sondern zu organisatorischer Unterversorgung – also zu Rückstau, Qualitätsrisiken und wachsendem Druck auf die verbleibenden Mitarbeiter.
Vor diesem Hintergrund liegt eine eher unspektakuläre, aber betriebswirtschaftlich saubere Konsequenz nahe: Personalveränderungen sollten vorsichtig und erfahrungsbasiert erfolgen, nicht auf Basis von Modellannahmen oder Folienlogik.
In der Praxis bedeutet das:
- erst tatsächliche Produktivitäts- und Qualitätsdaten im Betrieb sammeln
- Kontrollaufwände, Fehlerquoten und Abstimmungsbedarf real messen
- organisatorische Reibungsverluste sichtbar machen
Erst auf dieser Grundlage lassen sich belastbare Aussagen darüber treffen, ob und in welchem Umfang Kapazitäten tatsächlich reduziert werden können – oder ob sie an anderer Stelle schlicht wieder gebunden werden.
Ein vorschneller Personalabbau hingegen basiert zwangsläufig auf Annahmen, die sich im laufenden Betrieb erst noch beweisen müssen. Und genau deshalb führt er häufig nicht zu Effizienz, sondern zu nachträglicher Gegensteuerung – in Form von Überlastung, Qualitätsproblemen oder dem späteren, teureren Wiederaufbau von Kapazitäten.
5. Schlankere Governance statt administrativer Overkill
Die Tendenz, Arbeit um die KI herum zu kreieren, statt Arbeit mit der KI zu erledigen, ist einer der zuverlässigsten Produktivitätskiller der ganzen Veranstaltung.
Natürlich braucht es Governance. Aber Governance braucht Maß. Haftung, Sicherheit, Compliance, Dokumentation und Freigaben müssen sauber geregelt sein. Was nicht gebraucht wird, ist eine ritualisierte Überorganisation, die den Einsatz der Technologie stärker bremst als absichert.
Ein Punkt, der dabei oft zu kurz kommt: Mit der Einführung von KI wird nicht nur Technologie eingeführt, sondern Verantwortung übernommen. Und diese Verantwortung muss klar benannt und organisatorisch sauber verankert werden.
Das bedeutet konkret:
- Verantwortlichkeiten müssen explizit zugewiesen werden – nicht implizit angenommen
- Haftung, Entscheidungsbefugnisse und Kontrollrechte müssen zusammen gedacht werden
- Rollen dürfen nicht nur existieren, sondern müssen auch handlungsfähig sein
Und: Verantwortung ist kein abstrakter Zustand, sondern eine ökonomische Größe. Wer Verantwortung trägt, trägt Risiko – und genau das muss sich in Jobdescriptions und Vergütung widerspiegeln.
In der Praxis bedeutet das:
- Anpassung von Stellenprofilen (inkl. klar definierter Verantwortungsbereiche)
- Erweiterung von Entscheidungs- und Haftungsrahmen
- entsprechende Lohn- und Gehaltsanpassungen
Wer versucht, zusätzliche Verantwortung ohne strukturelle und finanzielle Anpassung „mitlaufen zu lassen“, bekommt in der Regel genau das, was man erwarten darf: formal zugewiesene Zuständigkeit ohne reale Verantwortungsübernahme.
Gleichzeitig spricht vieles dafür, den verantwortlichen Personenkreis zunächst bewusst schlank zu halten. Verantwortlichkeiten sollten nicht vorschnell breit verteilt werden, sondern zunächst dort gebündelt sein, wo Kompetenz und Übersicht vorhanden sind.
Erweiterungen von Verantwortlichkeiten sollten erst dann erfolgen, wenn ausreichend operative Erfahrung vorliegt – also wenn klar ist, wo tatsächlich Steuerungsbedarf entsteht und wo nicht.
Ausnahmen ergeben sich dort, wo regulatorische Anforderungen greifen oder funktionale Unabhängigkeiten notwendig sind. Vorgaben etwa aus dem AI Act oder aus etablierten Compliance-Prinzipien (z. B. Trennung von Ausführung und Kontrolle) können eine breitere oder getrennte Rollenverteilung erzwingen. Diese Anforderungen sind jedoch gezielt umzusetzen – nicht als Anlass für generelle Ausweitung von Governance-Strukturen.
Die eigentliche Herausforderung besteht damit in einer Balance: so viel Governance wie nötig, aber so wenig wie möglich. Oder weniger freundlich formuliert: Nicht jede potenzielle Verantwortung braucht sofort ein Gremium.
Die eigentliche organisatorische Kunst besteht also nicht darin, möglichst viele KI-Rollen zu erfinden, sondern präzise Verantwortlichkeiten zu definieren und den administrativen Apparat schlank zu halten.
Zusammengefasst
Die Organisation muss von einem Modell, das KI verwaltet, zu einem Modell übergehen, das KI produktiv beherrscht. Das bedeutet nicht nur, Rollen zu definieren, sondern Verantwortung klar zuzuweisen, unabhängig zu verankern, angemessen zu vergüten und organisatorisch wirksam zu machen – ohne dabei reflexhaft einen administrativen Überbau zu erzeugen, der den eigentlichen Nutzen wieder auffrisst.
Das klingt weniger glamourös als ein neues Steuerungsgremium, ist aber für den tatsächlichen Nutzen deutlich hilfreicher. Denn Effizienz entsteht nicht durch die Anzahl der Rollen, sondern durch ihr Verhältnis zur Wertschöpfung.
Und selbst wenn man diese Balance sauber hinbekommt, bleibt ein Teil der Rechnung noch offen. Denn neben Struktur, Kosten und Organisation gibt es einen weiteren Faktor, der in vielen Betrachtungen erstaunlich selten sauber adressiert wird: Risiken – und deren sehr konkrete betriebswirtschaftliche Auswirkungen.
Genau darum geht es morgen im nächsten Teil.
