a number of owls are sitting on a wire

Peter Thiel – personifiziertes „1984“?

In George Orwells dystopischem Roman „1984“ wird eine Gesellschaft beschrieben, in der Kontrolle, Überwachung und Manipulation der Wahrheit zum Alltag gehören1. Was damals als düstere Vision erschien, scheint heute in Teilen real geworden – durch technologische Entwicklungen und politische Ideologien, die einer offenen Gesellschaft diametral entgegenstehen. Peter Thiel, Mitgründer von PayPal und Palantir, Visionär des Libertarismus und Kritiker demokratischer Prozesse, steht exemplarisch für eine Bewegung, die Kontrolle über Transparenz stellt2. Doch wie sehr nähert sich Thiels Weltbild tatsächlich dem Orwellschen Albtraum?

Der Überwachungsstaat und Palantir

Sehende Steine in der digitalen Welt

Peter Thiel gründete 2003 das Unternehmen Palantir – benannt nach den „sehenden Steinen“ aus Tolkiens Universum3. Was als Datenanalyse-Plattform begann, entwickelte sich schnell zu einem der zentralen Werkzeuge für Regierungen und Geheimdienste4. In den USA, Großbritannien und auch in Deutschland wird Palantir in der Strafverfolgung eingesetzt – mit dem Anspruch, Verbrechen durch Datenprognose zu verhindern5. Das Prinzip: Alles sammeln, alles verknüpfen, alles auswerten.

Die Technologie hinter Palantir ist ebenso faszinierend wie beängstigend: Sie verbindet unzählige Datenquellen – von Polizeidatenbanken über Social-Media-Profile bis hin zu Finanztransaktionen – und macht daraus ein detailliertes Bild von Individuen, Gruppen und Bewegungen6. Was früher mühsame Ermittlungsarbeit war, übernimmt heute ein Algorithmus, der Muster erkennt, Beziehungen herstellt und sogar Prognosen über zukünftige Handlungen erstellt7.

In der Praxis bedeutet das: Ermittler können mit wenigen Klicks Bewegungsprofile erstellen, Kontaktketten analysieren und potenzielle Gefährder identifizieren – lange bevor ein Verbrechen tatsächlich geschieht8. Die Grenze zwischen Prävention und Vorverurteilung verschwimmt. Wer einmal im Raster der Datenanalyse auftaucht, gerät schnell in den Fokus der Behörden, selbst ohne konkreten Verdacht9.

Besonders kritisch ist dabei, dass Palantir als privates Unternehmen agiert und seine Software als Blackbox vermarktet10. Die genauen Algorithmen und Bewertungsmaßstäbe bleiben im Dunkeln – weder Behörden noch Bürger wissen, nach welchen Kriterien die Software arbeitet. Die Kontrolle über die gesammelten Daten und deren Interpretation liegt damit nicht mehr in öffentlicher, sondern in privater Hand11.

Die Parallelen zu Orwells „1984“ sind offensichtlich: Während dort der „Große Bruder“ über Bildschirme und Mikrofone wacht, übernehmen heute Datenströme und Algorithmen die Überwachung – unsichtbar, allgegenwärtig, unglaublich effizient12. Die Frage ist nicht mehr, ob wir überwacht werden, sondern wie tief und umfassend diese Überwachung bereits in unseren Alltag eingreift.

Kritische Stimmen und Bedenken

Kritiker bezeichnen Palantir als „Schlüsselfirma in der Überwachungsindustrie“13. Die Intransparenz der eingesetzten Algorithmen, das fehlende Wissen über Datenquellen und die Nutzung durch Behörden ohne parlamentarische Kontrolle werfen grundlegende Fragen auf14. Die Technik erscheint dabei wie ein trojanisches Pferd: offiziell dem Schutz der Gesellschaft dienend, in Wahrheit aber geeignet, Macht über sie zu gewinnen.

Besonders alarmierend ist die Tatsache, dass Palantir-Software nicht nur mit offiziellen, sondern auch mit halböffentlichen und privaten Datenquellen arbeitet15. Wer garantiert, dass dabei keine sensiblen oder gar illegal beschafften Informationen einfließen? Bürgerrechtsorganisationen wie die ACLU warnen, dass derartige Systeme die Schwelle zur Totalüberwachung überschreiten könnten – und das oft, ohne dass die Betroffenen es überhaupt bemerken16.

Auch in Deutschland ist der Einsatz von Palantir hoch umstritten. Datenschützer kritisieren, dass eine US-Firma Zugriff auf sensible polizeiliche Daten erhält und damit ein Einfallstor für staatliche wie privatwirtschaftliche Interessen entsteht17. Die Kontrolle über die Datenverarbeitung entgleitet den demokratischen Institutionen – ein Zustand, der an Orwells „Ministerium für Wahrheit“ erinnert, in dem Fakten nach Belieben manipuliert werden können18.

Ein weiteres Problem ist die mangelnde Nachvollziehbarkeit der Entscheidungen, die auf Basis der Palantir-Analysen getroffen werden19. Wenn Algorithmen Verdachtsmomente generieren, ohne dass Menschen die Logik dahinter verstehen oder überprüfen können, droht eine Aushöhlung rechtsstaatlicher Prinzipien20. Die Unschuldsvermutung gerät ins Wanken, wenn Datenprofile und Wahrscheinlichkeiten über das Schicksal von Individuen entscheiden.

Schließlich bleibt die Frage, wem diese Technologien am Ende dienen. Während die öffentliche Argumentation auf Sicherheit und Prävention abzielt, profitieren vor allem diejenigen, die Zugang zu den Daten und den Analysewerkzeugen haben – Regierungen, Behörden und nicht zuletzt die Unternehmen selbst. Die Macht, Gesellschaften algorithmisch zu lenken, ist ein gefährliches Privileg, das demokratischer Kontrolle dringend bedarf21.

Thiels politische Philosophie vs. Orwells Warnung

Libertarismus und Demokratiekritik

Peter Thiel bekennt sich zum Libertarismus – einer Ideologie, die den Staat auf ein Minimum reduzieren will. In seinen öffentlichen Äußerungen kritisiert er die Demokratie als ineffizient und innovationsfeindlich22. Für Thiel ist der Fortschritt nur dort möglich, wo Einzelne unabhängig von Mehrheitsentscheidungen handeln können. Diese Haltung erinnert frappierend an Orwells „Partei“, die ihre Macht durch Kontrolle der Narrative zementiert: Beide Systeme marginalisieren die Mitbestimmung.

Thiel geht sogar noch weiter: In einem vielzitierten Essay schrieb er, dass er nicht mehr an die Vereinbarkeit von Freiheit und Demokratie glaube23. Für ihn ist die Demokratie ein System, das durch Kompromisse, Debatten und Rücksichtnahmen auf die Mehrheit Innovation bremst und unternehmerische Freiheit einschränkt. Er sieht in der Dominanz der Masse eine Gefahr für das kreative Potenzial der Wenigen – eine Perspektive, die sich in seinem Engagement für exklusive, abgeschottete Projekte wie „Seasteading“ (schwimmende Privatstädte außerhalb staatlicher Kontrolle) widerspiegelt24.

Diese Denkweise birgt eine gefährliche Logik: Wenn demokratische Prozesse als Hindernis für Fortschritt betrachtet werden, liegt es nahe, sie zu umgehen oder zu schwächen. Genau hier zeigt sich die Parallele zu Orwells Dystopie – auch dort wird die Macht in den Händen weniger konzentriert und der Wille der Mehrheit systematisch entwertet25. Während die Partei in „1984“ mit Gewalt und Überwachung arbeitet, setzen moderne Tech-Eliten wie Thiel auf wirtschaftliche und technologische Dominanz.

Ein weiterer Aspekt: Thiels Glaube an Monopole als Motor für Innovation steht im Widerspruch zur klassischen Marktwirtschaft, die Wettbewerb als Garant für Fortschritt sieht26. Für Thiel ist das Monopol nicht das Problem, sondern die Lösung – denn nur so könne ein Unternehmen langfristig und unabhängig von gesellschaftlichen Zwängen agieren27. Auch das erinnert an Orwells Partei, die jede Konkurrenz ausschaltet, um ihre Herrschaft zu sichern.

Die gesellschaftlichen Folgen dieser Haltung sind gravierend. Wenn politische und wirtschaftliche Macht in den Händen weniger konzentriert wird, droht die Erosion demokratischer Strukturen. Die Mitbestimmung der Vielen wird zur Fiktion, die Freiheit der Wenigen zur Maxime. So entsteht eine technokratische Elite, die – wie in Orwells Roman – über den Rest der Gesellschaft bestimmt28.

Der Rückzug aus der Verantwortung

Thiels Kritik an der Demokratie kann als Teil eines größeren Phänomens verstanden werden: der Entpolitisierung technologischer Entwicklungen. Entscheidungen werden nicht mehr öffentlich diskutiert, sondern in Vorstandsetagen oder Codezeilen getroffen29. In einer solchen Ordnung ist der Mensch nicht mehr mündiger Bürger, sondern Datenpunkt. Die Verantwortung verschiebt sich von der Gesellschaft zum System – mit kaum überprüfbaren Konsequenzen.

Diese Entwicklung zeigt sich besonders deutlich im Umgang mit Big Data und künstlicher Intelligenz. Während Algorithmen immer mehr gesellschaftliche Prozesse steuern – von Kreditvergaben über Jobbewerbungen bis hin zu polizeilichen Risikoprognosen – bleibt die Frage nach Verantwortung und Kontrolle oft unbeantwortet30. Wer haftet, wenn ein Algorithmus diskriminiert oder Fehlentscheidungen trifft? Wer trägt die Folgen, wenn automatisierte Systeme ganze Lebensläufe beeinflussen?

Thiel und andere Tech-Eliten propagieren eine Ideologie, die Verantwortung individualisiert und kollektive Strukturen schwächt31. Die Gesellschaft wird aufgeteilt in Gewinner und Verlierer, in die, die gestalten, und die, die gestaltet werden. Die Idee einer gemeinsamen, solidarischen Verantwortung für das Gemeinwohl tritt in den Hintergrund. Stattdessen dominiert eine Haltung, die sich an Baumans Konzept der „Sezession der Erfolgreichen“ anlehnt32: Wer es sich leisten kann, zieht sich aus der Verantwortung für die Gemeinschaft zurück – sei es durch Steuerflucht, Privatstädte oder digitale Parallelwelten.

Diese „geistig-moralische Exterritorialität“ führt zu einer Entfremdung zwischen technologischer Elite und breiter Bevölkerung33. Während die einen Algorithmen und digitale Werkzeuge als Hebel zur Machterweiterung nutzen, bleibt der Großteil der Gesellschaft außen vor, wird zum Objekt von Analysen, Prognosen und Optimierungen. Die Kluft zwischen denen, die gestalten, und denen, die gestaltet werden, wächst stetig. Interessant dabei ist, dass automatisch auch die persönliche Freiheit der Eliten immer weiter eingeschränkt wird.

Im Ergebnis entsteht eine technokratische Ordnung, in der demokratische Kontrolle und gesellschaftliche Debatte immer weniger zählen. Die Verantwortung für die Folgen technologischer Entscheidungen wird zunehmend an „das System“ delegiert – ein System, das sich selbst legitimiert und kaum noch hinterfragt wird34. So droht die Demokratie nicht durch einen Putsch, sondern durch schleichende Entmachtung und Selbstentbindung der Verantwortung zu erodieren.

Technologische Kontrolle und gesellschaftliche Auswirkungen

Neusprech und Gedankenkontrolle

In „1984“ spielt die Kontrolle der Sprache eine zentrale Rolle: Wer Begriffe bestimmt, kontrolliert das Denken35. Auch heutige Technologieunternehmen beeinflussen durch Wortwahl, Interface-Gestaltung und algorithmische Gewichtungen, wie Realität wahrgenommen wird36. Thiels Projekte sind kein Einzelfall, sondern Ausdruck einer systematischen Verschiebung von Deutungshoheit hin zu digitaler Steuerung.

Im Roman wird mit „Neusprech“ eine Sprache geschaffen, die kritisches Denken verunmöglicht, weil sie den Wortschatz systematisch verknappt und Bedeutungen verschiebt. In der digitalen Gegenwart übernehmen Algorithmen eine ähnliche Funktion: Sie filtern, priorisieren und präsentieren Informationen so, dass bestimmte Narrative gestärkt, andere ausgeblendet werden37. Was im Newsfeed erscheint, was als relevant gilt, entscheidet nicht mehr die Öffentlichkeit, sondern ein undurchsichtiger Code38. Auch Trumps Sprachkorrekturen weisen in eine ähnliche Richtung.

Diese algorithmische Kuratierung wirkt subtil, aber nachhaltig. Sie beeinflusst, welche Themen wir für wichtig halten, wie wir über gesellschaftliche Probleme sprechen und welche Standpunkte überhaupt sichtbar bleiben39. Die Grenzen des Sagbaren und Denkbaren werden nicht mehr von einer Partei, sondern von Plattformbetreibern und ihren Geschäftsmodellen gezogen. Thiels Firmen – von Palantir bis hin zu Social-Media-Investments – sind Teil eines Ökosystems, das Deutungshoheit zunehmend privatisiert40.

Hinzu kommt: Die Sprache der Technologie selbst – voller Fachbegriffe, Buzzwords und Versprechen – erschwert kritische Auseinandersetzung41. Wer die Bedeutung hinter den Begriffen nicht versteht, kann nicht mitreden. So entsteht eine neue Form von „Neusprech“, die nicht auf Verboten, sondern auf Überforderung und Intransparenz basiert. Die Kontrolle über die Sprache verschiebt sich von der Politik zur Technik, von der Öffentlichkeit zu den Programmierern42.

Die Folge ist eine schleichende Gedankenkontrolle: Nicht durch offene Zensur, sondern durch die unsichtbare Steuerung dessen, was wir sehen, lesen und diskutieren43. Die digitale Öffentlichkeit wird so zum Spielfeld weniger Akteure, die bestimmen, welche Realitäten überhaupt noch denkbar sind. Damit rückt Orwells Dystopie in bedrohliche Nähe – nur dass die Kontrolle heute nicht mehr zentralstaatlich, sondern dezentral und privatwirtschaftlich organisiert ist. Was auffällt, das Prinzip wirkt bereits in der aktuellen Medienlandschaft, gerade auch in Deutschland.

Die unsichtbare Migration der Technologie

Ein interessanter Aspekt, der in der Diskussion oft übersehen wird: Technologien wie Palantir wandern unbemerkt in gesellschaftliche Strukturen ein44. Während der öffentliche Diskurs noch über ethische Fragen debattiert, werden Fakten bereits algorithmisch interpretiert. Diese „schleichende Machtübernahme“ entzieht sich klassischen Kontrollmechanismen und demokratischer Rückkopplung45.

Anders als bei politischen oder wirtschaftlichen Veränderungen, die öffentlich diskutiert und verhandelt werden, vollzieht sich die Integration mächtiger Technologien meist im Verborgenen. Behörden, Unternehmen und sogar Bildungseinrichtungen implementieren Softwarelösungen, deren Wirkungsweise und Reichweite kaum jemand wirklich versteht46. Die Folgen sind weitreichend: Entscheidungsfindung, Risikobewertung und sogar gesellschaftliche Normen werden zunehmend von Algorithmen geprägt, deren Logik und Zielsetzung intransparent bleibt47.

Diese technologische Migration ist nicht an nationale Grenzen gebunden. US-amerikanische Firmen wie Palantir, Google oder Meta prägen mit ihren Tools und Plattformen weltweit, wie Daten gesammelt, analysiert und genutzt werden. Nationale Gesetzgebung und demokratische Kontrolle geraten dabei ins Hintertreffen – die Souveränität der Gesellschaften wird durch die globale Reichweite digitaler Infrastrukturen untergraben48.

Besonders kritisch ist, dass diese Entwicklungen meist erst dann sichtbar werden, wenn sie bereits unumkehrbar sind. Ist eine Technologie erst einmal tief in Verwaltung, Justiz oder Wirtschaft integriert, lassen sich ihre Auswirkungen kaum noch zurückdrehen49. Der gesellschaftliche Diskurs hinkt der technischen Realität hinterher – und läuft Gefahr, die Kontrolle über zentrale Entscheidungsprozesse endgültig zu verlieren.

So entsteht eine neue Form der Macht: Sie ist nicht mehr an sichtbare Institutionen oder Personen gebunden, sondern wirkt unsichtbar durch Code, Datenflüsse und digitale Infrastrukturen50. Auch der „Killswitch“ stellt einen wirksamen Hebel dar. Die „unsichtbare Migration der Technologie“ ist damit ein schleichender Prozess, der unsere Gesellschaften grundlegend verändert – oft, ohne dass wir es merken oder demokratisch gestalten könnten.

Mangelndes Verständnis für gesellschaftliche Prozesse

Die Blackbox-Gesellschaft

Ein zentrales Problem im Zusammenhang mit Technologien wie Palantir liegt in ihrer Intransparenz. Entscheidungen werden auf Basis von Daten getroffen, die niemand nachvollziehen kann. Der Begriff „Blackbox“ trifft es gut: Die Inputs sind oft unbekannt, die Outputs schwer erklärbar – aber sie beeinflussen reale Lebensverläufe51. Was fehlt, ist eine gesellschaftliche Auseinandersetzung mit der Frage: Wer kontrolliert die Kontrolleure?

Algorithmen und KI-Systeme operieren nach Regeln, die selbst für Experten schwer zu durchschauen sind52. Oft werden Daten aus unterschiedlichsten Quellen zusammengeführt, gewichtet und verarbeitet – doch wie genau die Entscheidungsfindung abläuft, bleibt im Dunkeln. Für Betroffene ist es nahezu unmöglich nachzuvollziehen, warum sie beispielsweise als „Risikofall“ eingestuft oder von bestimmten Dienstleistungen ausgeschlossen werden53.

Diese Intransparenz hat gravierende Folgen: Sie erschwert rechtliche Überprüfbarkeit, schwächt die Position der Bürger gegenüber Behörden und Unternehmen und untergräbt das Vertrauen in gesellschaftliche Institutionen54. Wenn Entscheidungen nicht mehr nachvollziehbar sind, entsteht das Gefühl, einer anonymen, unkontrollierbaren Macht ausgeliefert zu sein – eine moderne Variante der Ohnmacht, wie sie Orwell in „1984“ beschreibt55.

Hinzu kommt, dass die Blackbox-Logik die Verantwortung verschleiert. Fehlerhafte oder diskriminierende Entscheidungen können auf „das System“ abgeschoben werden – eine konkrete Verantwortlichkeit bleibt aus56. So entsteht eine gefährliche Grauzone, in der weder Entwickler noch Anwender oder politische Entscheidungsträger zur Rechenschaft gezogen werden können.

Umso dringlicher ist die Frage nach demokratischer Kontrolle und Transparenz: Wer legt fest, nach welchen Kriterien Algorithmen arbeiten? Wie können Betroffene ihre Rechte wahrnehmen? Und wie lässt sich verhindern, dass technologische Systeme zu neuen, undurchsichtigen Machtzentren werden? Ohne eine breite gesellschaftliche Debatte droht die Blackbox-Gesellschaft zur neuen Normalität zu werden – mit allen Risiken für Freiheit, Gerechtigkeit und Demokratie.

Der Faktor Mensch: Das Unberechenbare im System

Ein oft übersehener Aspekt bei der Digitalisierung gesellschaftlicher Prozesse ist der Umgang mit dem Menschen selbst. Algorithmen und datengetriebene Systeme wie Palantir behandeln den Menschen häufig wie eine berechenbare Variable – als Maschine, deren Verhalten sich aus Daten ableiten und vorhersagen lässt. Doch der Mensch ist mehr als die Summe seiner Datenpunkte: Er ist stochastisch, persönlich, manchmal irrational oder sogar pathologisch in seinem Handeln. Eliten scheinen dies nicht zu begreifen.

Gerade das Unvorhersehbare, das Individuelle und das Emotionale machen menschliches Verhalten aus – und entziehen sich jeder vollständigen Modellierbarkeit. Wenn Systeme diese Dimensionen ignorieren, entsteht ein verzerrtes Bild: Der Mensch wird auf Muster, Wahrscheinlichkeiten und Durchschnittswerte reduziert. Persönliche Geschichten, Brüche, Zufälle oder außergewöhnliche Lebenswege finden keinen Platz in der Logik der Algorithmen. Der Homo Economicus ist eine Illusion, was gerne von Liberitären übersehen wird.

Das birgt Risiken: Wer den Menschen als Maschine ohne Persönlichkeit betrachtet, übersieht nicht nur das Störende und Kreative, sondern auch das Verletzliche und Unangepasste. Pathologische oder schlicht ungewöhnliche Verhaltensweisen, wie z.B. Neurodivergenz, werden als Fehler im System interpretiert – nicht als Ausdruck menschlicher Vielfalt. So droht eine Gesellschaft, in der Abweichung nicht mehr als Chance, sondern als Problem betrachtet wird.

Eine kritische Auseinandersetzung mit Technologie muss daher immer auch die Grenzen der Berechenbarkeit anerkennen. Nur so bleibt Raum für das Menschliche im System – für Empathie, Unvorhersehbarkeit und die Anerkennung individueller Lebenswege.

Die Illusion der Freiwilligkeit

Ein wesentlicher Unterschied zwischen Orwells Dystopie und der heutigen Realität besteht darin, dass Kontrolle heute oft als freiwillig erscheint. Wir stimmen AGBs zu, aktivieren Ortungsdienste, akzeptieren Datennutzung – scheinbar aus freien Stücken57. Doch wie freiwillig ist eine Entscheidung, wenn Alternativen fehlen oder der soziale Druck groß ist? Die Freiheit wird zur Simulation.

Im Gegensatz zu Orwells Zwangssystem werden wir nicht offen bedroht, sondern mit Komfort, Zugehörigkeit und digitaler Teilhabe gelockt. Wer nicht mitmacht, bleibt außen vor – im Beruf, im Freundeskreis, im Alltag. Die Entscheidung, digitale Dienste zu nutzen, ist selten wirklich frei, sondern oft die einzige praktikable Option58. Die Abhängigkeit von Plattformen und Apps wird zur unsichtbaren Norm, die kaum noch infrage gestellt wird.

Hinzu kommt die Komplexität der digitalen Welt: Die Konsequenzen der eigenen Zustimmung sind für Laien kaum absehbar. Datenschutzerklärungen sind schwer verständlich, Algorithmen arbeiten im Verborgenen, und die Verknüpfung persönlicher Daten ist für den Einzelnen nicht mehr nachvollziehbar59. Die scheinbare Freiwilligkeit basiert auf Unwissenheit und Überforderung – nicht auf echter Wahlfreiheit.

So entsteht eine paradoxe Situation: Wir stimmen der Überwachung zu, weil wir glauben, es zu müssen – oder weil uns die Alternativen fehlen. Die Kontrolle ist nicht weniger umfassend als in „1984“, aber sie tarnt sich als Service, als Fortschritt, als Teilhabe60. Die Machtstrukturen bleiben verborgen, während wir uns in der Illusion der Selbstbestimmung wiegen.

Die Herausforderung für die Gesellschaft besteht darin, diese Illusion zu durchbrechen: Transparenz, echte Wahlmöglichkeiten und ein kritischer Diskurs über digitale Teilhabe sind notwendig, um aus der Simulation von Freiheit wieder reale Selbstbestimmung zu machen. Andernfalls droht die freiwillige Unterwerfung zur neuen Normalität zu werden – mit allen Konsequenzen für Demokratie und persönliche Autonomie.

Fazit: Zwischen Dystopie und Realität

Die Parallelen zwischen Peter Thiels Agenda und Orwells „1984“ sind beunruhigend. Während Orwell den totalitären Staat fürchtete, entfaltet sich heute ein digitaler Überwachungsapparat im Schatten der Demokratie – getragen von libertären Ideologien und mächtigen Tech-Konzernen. Die Herausforderung besteht darin, Technologien kritisch zu begleiten, Transparenz einzufordern und gesellschaftliche Verantwortung nicht an Algorithmen zu delegieren.

Der große Unterschied: Die Kontrolle in der Gegenwart ist weniger offensichtlich, weniger brutal, aber nicht weniger wirksam. Sie funktioniert durch Daten, Interfaces und unsichtbare Infrastrukturen, die unser Verhalten lenken und unsere Entscheidungen beeinflussen. Die Macht verschiebt sich von staatlichen Institutionen zu privaten Akteuren, die sich demokratischer Kontrolle weitgehend entziehen61.

Gerade deshalb ist eine gesellschaftliche Debatte über die Rolle von Technologie, die Grenzen algorithmischer Steuerung und die Verantwortung der Entwickler und Nutzer so dringend notwendig. Es reicht nicht, auf den technischen Fortschritt zu vertrauen oder sich in die vermeintliche Freiwilligkeit zu fügen. Vielmehr braucht es einen neuen Gesellschaftsvertrag, der digitale Souveränität, Transparenz und Mitbestimmung ins Zentrum rückt.

Nur wenn wir Technologie nicht als neutrale Infrastruktur, sondern als gestaltbare gesellschaftliche Kraft begreifen, können wir verhindern, dass sich Orwells düstere Vision in neuer, digitaler Gestalt verwirklicht. Die Zukunft der Freiheit entscheidet sich nicht in den Rechenzentren der Tech-Konzerne – sondern in der Bereitschaft der Gesellschaft, Verantwortung zu übernehmen und Kontrolle zurückzufordern.

Quellen

  1. George Orwell: 1984. Roman. (Original: 1949)
  2. New Yorker: Peter Thiel, Trump’s Most Unlikely Supporter, 2016
  3. Wired: Palantir, the War on Terror’s Secret Weapon, 2011
  4. The Guardian: Palantir: the ‘special ops’ tech giant…, 2020
  5. Zeit Online: Polizei Hessen setzt auf Palantir, 2019
  6. Süddeutsche Zeitung: Die Polizei, Palantir und die Daten, 2020
  7. ProPublica: How Palantir Helps the NSA Spy on You, 2013
  8. Heise Online: Predictive Policing: Palantir und die Polizei, 2019
  9. Netzpolitik.org: Palantir: Die Blackbox der Polizei, 2022
  10. AlgorithmWatch: Automatisierte Entscheidungen in der Polizei, 2021
  11. Amnesty International: Surveillance Giants, 2019
  12. The Atlantic: The Real Threat of Artificial Intelligence, 2017
  13. The Intercept: Palantir Knows Everything About You, 2017
  14. Human Rights Watch: Automated Injustice, 2019
  15. Wired: Palantir’s God’s-Eye View of Afghanistan, 2013
  16. ACLU: The Dawn of Robot Surveillance, 2019
  17. Tagesspiegel: Palantir in Deutschland: Kritik von Datenschützern, 2022
  18. FAZ: Polizeisoftware Palantir: Der gläserne Bürger, 2021
  19. AlgorithmWatch: Automatisierte Polizeiarbeit, 2021
  20. European Parliament: Artificial Intelligence in Criminal Law, 2020
  21. NZZ: Die Polizei und die Algorithmen, 2021
  22. The Atlantic: Peter Thiel’s Libertarian Crusade, 2016
  23. Washington Post: Peter Thiel: Democracy and Freedom Are No Longer Compatible, 2009
  24. The Economist: Seasteading: Cities on the Ocean, 2017
  25. Financial Times: The Tech Elite’s Quest to Escape Democracy, 2018
  26. Peter Thiel: Zero to One, 2014
  27. Harvard Business Review: Peter Thiel’s Monopoly Theory, 2014
  28. The New Yorker: Peter Thiel and the Ideology of Silicon Valley, 2016
  29. Zygmunt Bauman: Die Angst vor den Anderen, 2016
  30. Shoshana Zuboff: Das Zeitalter des Überwachungskapitalismus, 2018
  31. Evgeny Morozov: To Save Everything, Click Here, 2013
  32. Bauman: Flüchtige Moderne, 2000
  33. Byung-Chul Han: Die Ausbeutung der Daten, 2017
  34. FAZ: Automatisierung und Verantwortung, 2020
  35. AlgorithmWatch: Automatisierte Entscheidungen und Diskriminierung, 2020
  36. ProPublica: Machine Bias, 2016
  37. Human Rights Watch: Automated Injustice, 2019
  38. Zeit Online: Überwachung und Demokratie, 2021
  39. The Guardian: How Facebook’s News Feed algorithm works, 2021
  40. AlgorithmWatch: Automatisierte Kuratierung, 2021
  41. Wired: How Algorithms Shape Our Reality, 2015
  42. Zuboff: Das Zeitalter des Überwachungskapitalismus, 2018
  43. The Atlantic: How Facebook Makes Us Dumber, 2015
  44. Wired: Palantir, the War on Terror’s Secret Weapon, 2011
  45. Han: Die Ausbeutung der Daten, 2017
  46. Morozov: To Save Everything, Click Here, 2013
  47. AlgorithmWatch: Automatisierte Kuratierung, 2021
  48. The Guardian: How Facebook’s News Feed algorithm works, 2021
  49. Wired: How Algorithms Shape Our Reality, 2015
  50. Zuboff: Das Zeitalter des Überwachungskapitalismus, 2018
  51. Netzpolitik.org: Palantir: Die Blackbox der Polizei, 2022
  52. AlgorithmWatch: Automatisierte Entscheidungen in der Polizei, 2021
  53. FAZ: Polizeisoftware Palantir: Der gläserne Bürger, 2021
  54. Amnesty International: Surveillance Giants, 2019
  55. ProPublica: Machine Bias, 2016
  56. AlgorithmWatch: Automatisierte Entscheidungen und Diskriminierung, 2020
  57. Human Rights Watch: Automated Injustice, 2019
  58. Zeit Online: Überwachung und Demokratie, 2021
  59. Zuboff: Das Zeitalter des Überwachungskapitalismus, 2018
  60. Han: Psychopolitik, 2014
  61. The Economist: Tech Giants and Global Power, 2017

Kommentar verfassen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..