Es ist nur als Beispiel zu sehen, Apples Airtags. Kleine, runde Alltagshelfer, die verloren Geglaubtes wiederfinden lassen, als wären sie die digitalen Trüffelschweine unserer chaotischen Taschenwelt. Technologien also, die – oberflächlich betrachtet – unsere Welt einfacher machen. Und doch steckt in dieser Einfachheit ein Paradox: Je naiver das Produkt erscheint, desto größer kann sein Missbrauchspotential sein. Das ist fast schon eine technologische Binsenweisheit – aber eine, die wir konsequent zu ignorieren scheinen.
Beispiel gefällig? Wenig später warnte die Polizei vor Autodieben, die den Airtag als digitalen Komplizen verwenden. Nichts Komplexes, keine Hightech-Hacker aus düsteren Kellern – einfach ein Produkt, das zu gut funktioniert. Das Böse ist manchmal schlicht eine gute UX.
Intent und Incident – zwei Seiten derselben Medaille
Für mich wird immer deutlicher, dass wir wesentlich vorsichtiger mit Technologie umgehen und potentiellen Missbrauch vorhersehen müssen. Es reicht längst nicht mehr, Innovation nur nach Funktionalität oder Marktpotenzial zu beurteilen. Der Satz „Was könnte schiefgehen?“ darf kein nachträgliches Schulterzucken mehr sein, sondern müsste eine verpflichtende Disziplin jedes Entwicklungsprozesses werden.
Im Automotive Umfeld soll es die Norm ISO 21448 richten, auch bekannt unter dem schöner klingenden Kürzel SOTIF – Safety Of The Intended Functionality. Sie kümmert sich nicht um defekte Hardware oder fehlerhafte Software – sondern um genau das, was eigentlich richtig funktioniert, dabei aber trotzdem Schaden anrichten kann. Also um jenen grauen Bereich, in dem Absicht, Nutzung und Wirklichkeit beginnen, sich gegenseitig zu missverstehen.
Engineering zwischen Verantwortung und Verdrängung
Strukturiert Missbrauchspotentiale auszuloten, darf nicht mehr nur als nettes Beiwerk, sondern als Verpflichtung für jede Inverkehrbringung von Technologie gesehen werden. Wir müssen lernen, das Böse mitzudenken – nicht im hollywoodschen Sinne, sondern als nüchterne Disziplin. Das bedeutet, sich gedanklich auf die andere Seite der Tastatur zu setzen. Oder, wie ich es gern nenne: die Hackerbrille aufzusetzen.
Seid destruktiv kreativ! Es ist gar nicht so schwer. Ein paar Beispiele für destruktives Denken habe ich vor mittlerweile fünf Jahren in meinem Buch Beware of Car Hacking beschrieben. Und viele dieser Beispiele wirken heute fast banal – gerade deshalb sind sie so gefährlich. Es sind meist nicht die intelligentesten Hacks, sondern die einfachsten, die den größten Schaden anrichten.
Einfachheit – der gefährlichste Ingenieur?
Der Airtag zeigt das schön. Ein winziger, unscheinbarer Helfer mit hoher Verfügbarkeit, langer Batterielaufzeit und apfeligem Design. Kaum eine Technologie hat so unschuldig gewirkt – und kaum eine hat so schnell bewiesen, dass man keine schlechte Intention braucht, um Schlechtes zu ermöglichen. Apple, das sei an dieser Stelle ausdrücklich betont, hat hier wirklich gute Arbeit geleistet. Die Ironie liegt nicht im Produkt, sondern in der Welt, die es benutzt.
Dieser Beitrag soll also kein Apple-Bashing sein. Im Gegenteil: Er ist eine Erinnerung daran, dass jede technische Innovation in einem ethischen Resonanzraum schwingt. Und dass dieser Raum lauter wird, je stärker die Technologie in unseren Alltag eindringt.
Technologie als moralisches Experiment
Als Technologieanbieter wird es somit immer schwerer, kriminelles Potential in neuen Produktideen rechtzeitig zu erkennen – und gleichzeitig gute Ideen nicht vorschnell in den Papierkorb der Vorsicht zu werfen. Innovation braucht Mut, aber eben auch Demut. Vielleicht ist das die unterschätzteste Zutat moderner Entwicklung.
Es wäre naiv zu glauben, dass sich Missbrauch verhindern lässt. Aber es wäre fatal, ihn gar nicht erst mitzudenken. Denn Technologie erzeugt immer Nebenwirkungen – physisch, sozial, politisch. Jede Linie Code, jede neue Sensorik, jeder Algorithmus formt die Welt ein Stück um. Und so absurd es klingt: Die Verantwortung dafür trägt nicht die Maschine, sondern der Mensch, der sie baut – und der, der sie nutzt.
Von der Produktidee zum Weltverhalten
Vielleicht brauchen wir also etwas, das man als „ethische Qualitätssicherung“ bezeichnen könnte. Ein Team, das nicht fragt, ob es funktioniert, sondern wem es nützt – und wem nicht. Wer sich beim Designprozess diese Frage ehrlich stellt, verlässt den bequemen Ingenieurmodus und tritt in einen neuen Beruf ein: den des Technologie-Philosophen.
Das mag pathetisch klingen, ist aber unvermeidlich. Wir haben Technologie längst so tief in unsere sozialen Strukturen integriert, dass jedes „Feature“ auch einen gesellschaftlichen Nebeneffekt besitzt. Insofern sind wir alle Beta-Tester – nur dass die Bugs in unserer Lebensrealität auftauchen.
Digitaler Darwinismus
Eine Technologie überlebt nicht, weil sie perfekt ist, sondern weil sie sich durchsetzt. Das war im Tierreich schon so, das gilt in unserer Technosphäre nicht minder. Der Unterschied: Während die Evolution Fehler bestraft, tendieren wir dazu, sie zu ignorieren, bis sie uns auf die Festplatte fallen.
Die einzige wirksame Gegenmaßnahme bleibt das, was gute Ingenieure immer auszeichnete: Neugier, Zweifel und ein wenig Misstrauen gegenüber der eigenen Brillanz. Das ist keine Schwäche, sondern gelebte Verantwortung. Oder, um es mit einem kleinen Augenzwinkern zu sagen: Wer seine Idee liebt, sollte sie hacken, bevor es jemand anderes tut.
Und vielleicht wäre das das schönste Qualitätskriterium für die Technik der Zukunft: dass sie nicht nur funktioniert, sondern bewusst gemacht wurde – mit all ihren Konsequenzen.
