Früher war KI eine Funktion, geradezu ein kleines Feature am Rand: ein Spracherkennungsmodul, ein Smart‑Reply, ein Chatbot, den man mit einem Klick aktivieren oder deaktivieren konnte. Die Entscheidung, ob man KI überhaupt nutzen möchte, ob sie in den eigenen Arbeits‑ oder Lebensbereich eindringt, lag klar beim Nutzer. Heute wandert KI in die Mitte – in den Kern des Systems, in das Betriebssystem selbst. Und mit jedem Schritt, den sie tiefer in die Kernel‑Schichten eindringt, rutscht die Entscheidungsmacht ein Stück weiter vom Kunden weg. [KI inside – die neue Plage, gegen die es kein Antivirus gibt]
Die KI als Funktion vs. die KI als Teil des Systems
Noch vor wenigen Jahren war KI meist ein anwendungsseitiges Add‑on: ein Assistenzprogramm, eine Cloud‑API, ein Dienst, den man gezielt aufruft. Man öffnete eine App, rief ein Modell an, gab Inputs, erhielt Outputs und schloss wieder. Die Architektur war klar: Außen ist die Nutzerumgebung, innen ist das heutige Betriebssystem, und irgendwo „dazwischen“ sitzt die KI als eingelagerte Funktion. Opt‑in und Opt‑out waren hier technisch wie rechtlich noch einigermaßen nachvollziehbar; die Grenzen zwischen „aktiv“ und „deaktiviert“ ließen sich dokumentieren.
Mittlerweile ändert sich die Architektur: KI wird nicht mehr nur als App, sondern als Systemdienst oder gar als integrierter Dienstleister im Betriebssystem eingebettet. Die Unterscheidung zwischen Funktion und System verschwimmt. [KI inside] KI ist nicht mehr etwas, das man „mal benutzt“, sondern etwas, das permanent im Hintergrund läuft, Screenshots nimmt, Inhalte indexiert und Empfehlungen verteilt – oft ohne dass der Nutzer auch nur merkt, wo die Grenze zwischen „System“ und „KI‑Dienst“ verläuft.
Die Entscheidung verlagert sich: Vom Nutzer zum Hersteller
Früher konnten Nutzerinnen und Nutzer KI‑Funktionen bewusst hinzunehmen oder zurückweisen. Man las die EULA, klickte „zustimmen“ oder „ablehnen“, installierte ein Feature oder ließ es weg. Die Verantwortung teilte sich zwischen Herstellerdesign und Nutzerentscheidung. Heute ist die Realität komplexer: KI wird im Betriebssystem integriert, oft als Teil großer Updates, die unter dem Deckmantel von „Sicherheit“, „Opt‑in“ und „optional“ ausgeliefert werden.
Was dabei passiert, ist ein subtiler, aber wirkmächtiger Machtverschiebungseffekt: Die Entscheidung über Nutzung und Datennutzung wird praktisch vom Nutzer weg zum Hersteller und seiner Update‑Logik verlagert. [KI inside] Einmal integriert, lässt sich KI‑Dienste im Betriebssystem oft nur noch schwer entfernen, ohne tief in Registry‑Einträge, Gruppenrichtlinien oder gar eine komplette Neuinstallation einzusteigen – ein Aufwand, den der „normale“ Nutzer kaum bewältigen kann.
Sensible Bereiche: F&E, Medizin, Jura
In Bereichen wie Forschung & Entwicklung, Medizin oder Jura, wo Geheimhaltung, Datenschutz und Vertraulichkeit nicht nur technische sondern auch rechtliche Pflichten sind, wird diese Verschiebung besonders kritisch. Stellen Sie sich ein F&E‑Labor vor, in dem ein Betriebssystem mit KI‑Feature permanent Screenshots, Protokolle oder Metadaten erfasst, sie indiziert und in einem Cloud‑Backend zur Verfügung stellt – etwa im Stil von Microsoft Recall oder ähnlichen Überwachungs‑Assistenten. [KI inside]
Mit einem Schlag kann ein „nur für mich“ gedachter Prototyp oder ein Dossier‑Entwurf in einem Index landen, der theoretisch angriffsanfällig ist oder über Schnittstellen zugänglich wird, die der Nutzer gar nicht übersieht. [KI inside] In Medizin oder Jura bedeutet das faktisch ein Risiko für Patientendaten, Mandantendaten oder Vertraulichkeitspflichten – ein Terrain, auf dem Opt‑out‑Varianten nicht ausreichen, wenn der Kern des Systems bereits KI‑Datenströme vorgesehen hat.
Opt-in, Opt-out – und die Illusion freier Wahl
Marketing und rechtliche Selbstbeschreibung lieben das Wort „Opt‑in“. In der Theorie bedeutet es: Der Nutzer entscheidet aktiv, ob er eine Funktion nutzen möchte. Doch in der Praxis wird „Opt‑in“ in vielen Fällen zu einem technischen Selbstbedienungsschalter, der in der Praxis nur wenig schützt – vor allem, wenn die KI‑Funktion im Betriebssystem selbst sitzt und durch Updates standardmäßig aktiviert wird.
Opt‑out ist noch heikler: Statt zu fragen, ob jemand etwas nutzen möchte, fragt man gar nicht erst, sondern stellt es bereit und erlaubt nur ein „Widerspruch“, wenn man den Schalter findet. [KI und Datenschutz] In vielen Fällen erfordert ein solches Opt‑out tiefe technische Kenntnisse oder Eingriffe in Systemkonfigurationen. Das ist für Privatnutzer, aber auch für viele Unternehmen in der täglichen Praxis kaum realistisch.
Microsoft hat etwa mit seinem Recruiting‑ und KI‑Ökosystem gezeigt, dass gesetzlich geforderte „Opt‑in‑Verfahren“ oft nur so viel Freiheit geben, wie die technische Umsetzung im System zulässt. [KI inside] Je tiefer KI in den Kern des Systems rutscht, desto unrealistischer wird die Vorstellung, ein durchschnittlicher Nutzer könnte die Entscheidung wirklich in der Hand haben. Die Illusion freier Wahl bleibt – aber die technische Realität schiebt die Entscheidung längst in den Konzernkern und in die Update‑Logik.
Gesetzgebung: Was kann der Gesetzgeber noch tun?
Die Europäische Union reagiert mit der KI‑Verordnung (KI‑VO), die KI‑Systeme nach Risikoklassen einordnet und strenge Anforderungen an Transparenz, Nachvollziehbarkeit, Datenschutz und Sicherheit stellt. [Tatbestand der Datenverschmutzung im Zeitalter von KI] Hochriskante Systeme – etwa solche, die in kritischen Infrastrukturen, medizinischen Anwendungen oder im juristischen Umfeld eingesetzt werden – sollen besonders streng reguliert werden.
Doch die KI‑Verordnung stößt dort an ihre Grenzen, wo KI‑Features im Betriebssystem als „Standardfunktion“ ausgeliefert werden. [Haftung für künstliche Intelligenz] Technisch lassen sich oft nur schwer unterscheiden, ob eine Funktion ein „risikoreiches KI‑System“ im Sinne der Verordnung ist oder lediglich ein „Bequemlichkeitsfeature“, das sich im System ausbreitet. Die politische, rechtliche und technische Schwierigkeit ist: Die Verordnung kann ex ante Regeln aufstellen, aber die Dynamik der Systemintegration läuft in der Praxis oft schneller als die Jurisprudenz.
Die Rolle von Datenschutzrechten und gerechtfertigtem Interesse
Die Datenschutz‑Grundverordnung (DSGVO) stellt auf Zweckbindung, Datensparsamkeit und Transparenz ab. [KI und Datenschutz] Unternehmen, die KI‑Funktionen im Betriebssystem einsetzen, müssen nicht nur rechtlich begründen, warum sie welche Daten erheben, sondern auch zeigen, dass sie nicht mehr als nötig erheben. Problematisch wird es, wenn KI‑Dienste systematisch Daten sammeln, die über den eigentlichen Zweck hinausgehen – etwa Browser‑History, Chat‑Inhalte oder Arbeitstexte, die nicht als „Technikdaten“, sondern als Materiedaten verarbeitet werden.
Gerichte wie das Oberlandesgericht Köln haben bereits in Fällen von Meta gezeigt, dass Opt‑in‑Mechanismen und „berechtigtes Interesse“ rechtlich positiv bewertet werden können, wenn entsprechende Ausnahmen und rechtliche Lücken existieren. [OLG Köln: Meta darf Daten für KI-Training auf Opt-Out-Basis verwenden] Solche Präzedenzfälle können als Vorbild für die Integration von KI‑Diensten in Betriebssysteme dienen, auch wenn sie zugleich die Kontrolle der Nutzer über ihre Daten weiter schwächen.
Praxis im Unternehmen: Governance statt Opt-out‑Illusion
Für Unternehmen ist die Lage klar: Sie können sich nicht mehr auf „Opt‑in in der EULA“ oder „Opt‑out im Menü“ verlassen. [KI-Effizienz: Organisation] Wenn KI tief in das Betriebssystem integriert ist, muss Governance frühzeitig eingebunden werden: Definiert, welche Daten erfasst werden dürfen, wie lange sie gespeichert sind, welche Systeme KI‑Funktionen nutzen dürfen und welche Mandanten‑ oder F&E‑Daten grundsätzlich ausgespart werden müssen.
Unternehmen in sensiblen Bereichen – etwa Pharma, Medizintechnik, Sicherheitsdienstleistungen oder Kanzleien – müssen sich entscheiden, ob sie KI‑Systeme im Betriebssystem überhaupt zulassen oder ob sie auf Architekturen setzen, die KI‑Dienste klar abgetrennt halten. [Datenverschmutzung im Zeitalter von KI] Ohne eine solche Governance riskiert man, dass vertrauliche Daten in einem Systemindex landen, den der Nutzer nicht mehr löschbar oder kontrollierbar findet.
Die Rolle der Nutzer: Wissen, Aufmerksamkeit und Widerstandsfähigkeit
Für Endnutzerinnen und Endnutzer bleibt trotz der komplexen Systemarchitektur ein Rest von Macht: Aufmerksamkeit, Wissen und bewusste Entscheidung. [Wir haben keine Ahnung, welchen Effekt die KI da erzeugt hat] Wer sensibel mit Daten umgeht, wer Nachfragen zu KI‑Funktionen im Betriebssystem stellt, wer alternative Betriebssysteme wie Linux in Betracht zieht, kann zumindest die eigene individuelle Exposition reduzieren.
Unternehmen können sich nicht auf die Illusion der Individualentscheidung verlassen. [KI inside] Die Entscheidung, ob KI‑Funktionen im Betriebssystem erlaubt sind, muss dort fallen, wo Governance, Risikobewertung und Compliance zusammenkommen – nicht am Homescreen eines einzelnen Mitarbeiters.
Ausblick: KI als Betriebssystem – architektonisch wie rechtlich
Die Richtung ist klar: KI wird zunehmend Architekt der eigenen Umgebung, nicht nur Funktion innerhalb einer Umgebung. [KI-Kultur] Wenn KI „als Betriebssystem“ gedacht wird, verändert sich die Vorstellung von Softwarearchitektur grundlegend – und damit auch die rechtliche und ethische Debatte. [Die 5 Bausteine unseres KI-Betriebssystems]
Die Frage, ob KI noch eine Funktion oder bereits ein Teil des Betriebssystems ist, wird zukünftig ebenso technisch wie rechtlich entschieden werden müssen. [KI inside] Und mit jeder weiteren Tiefe, die KI in den Kern des Systems eindringt, wird die prekäre Balance zwischen Nutzerfreiheit, Herstellermacht und Datenschutz zu einem der zentralen Themen der nächsten Dekade.

