Im Zeitalter der Künstlichen Intelligenz (KI) und Big Data stellt sich zunehmend die Frage, wie mit manipulativen oder unkontrolliert eingepflegten Daten in Trainingssets rechtlich umzugehen ist. Das sogenannte „Data Poisoning„ oder die „Datenverschmutzung„ – also die (un)bewusste oder fahrlässige Einbringung fehlerhafter, unvollständiger oder manipulativer Daten – führt oft zu verfälschten Ergebnissen, die wissenschaftliche Integrität untergraben und das Vertrauen in Forschung und Technologie gefährden. In diesem Kontext gewinnt die Diskussion um einen eigenständigen strafrechtlichen Tatbestand an Bedeutung.
Aktuelle Herausforderung: Unkontrollierte Datenintegration und Paper Mills
Ein zentrales Problem der heutigen KI-Entwicklung liegt im unkontrollierten Einbinden ungeprüfter und oft schlechter Daten in Trainingsdatensätze. Diese Praxis kann sich als höchst schädlich erweisen, da die fehlerhaften oder manipulierten Daten in den KI-Modellen zyklisch reproduziert und durch wiederholtes Training sogar verstärkt werden. So entstehen Rückkopplungseffekte, die nicht nur die Qualität einzelner Modelle, sondern ganze Anwendungsbereiche verfälschen können. Die Modelle beginnen, systematische Fehler, Verzerrungen (Bias) und Fehlinformationen zu reproduzieren, was den Nutzen und die Vertrauenswürdigkeit der KI massiv beeinträchtigt.
Parallel zu dieser Problematik wächst die Anzahl sogenannter „Paper Mills„ – Unternehmen oder Gruppierungen, die wissenschaftliche Arbeiten in großen Mengen ohne wissenschaftliche Substanz oder methodische Sorgfalt produzieren. Diese Veröffentlichungen suggerieren eine Fülle an Forschungsergebnissen, die jedoch oft nicht auf validen Daten basieren, methodisch fehlerhaft oder gar gefälscht sind. Der massive Output solcher Paper Mills führt zu einer regelrechten Flut von vermeintlichen Erkenntnissen, die in Folge von anderen Forschern, Medien oder KI-Systemen ungeprüft zitiert und weiterverwendet werden.
Diese aggressive Verbreitung vermeintlicher „Forschungsergebnisse„ hat mehrere schwerwiegende Konsequenzen:
- Wissenschaftlicher Betrug und Glaubwürdigkeitsverlust: Die Qualität und Verlässlichkeit wissenschaftlicher Literatur leidet massiv, da Paper Mills die Basis legitimer Forschung unterminieren und es zunehmend schwer wird, valide von verfälschten Informationen zu unterscheiden.
- Verschleierte Reproduzierbarkeit: Weil die Datenlage oft undurchsichtig bleibt, wird die Reproduzierbarkeit von Ergebnissen stark eingeschränkt – ein Grundpfeiler wissenschaftlicher Methodik.
- Fehlerverstärkung in KI-Systemen: KI-Modelle, die auf solchen fragwürdigen Publikationen oder deren Daten basieren, verstärken systematisch Fehler und Fehlinformationen und gefährden so die Qualität automatisierter Entscheidungen, Empfehlungen und Forschungsprozesse.
- Gesellschaftliche Auswirkungen: Die Verbreitung falscher wissenschaftlicher Informationen kann zu Fehlinformation, Vertrauensverlust in die Wissenschaft und politisch oder sozial sensibilisierten Bereichen zu Fehlentscheidungen führen.
Zusätzlich tragen diese Faktoren zu einem gefährlichen Kreislauf bei: Ungeprüfte Ergebnisse und manipulierte Daten werden wiederverwendet, in neuen Arbeiten zitiert und fließen erneut in Trainingsdatensätze – die Verzerrungen steigen exponentiell.
Aus diesem Grund ist eine kritische Kontrolle und Validierung von Datenquellen sowie Forschungsarbeiten unerlässlich. Es besteht ein großer Bedarf an strengeren Qualitätskontrollen, standardisierten Prüfverfahren und vor allem an Transparenz bei der Herkunft und Integrität der Daten und Publikationen, die in KI-Trainingszwecken oder wissenschaftlichen Referenzen genutzt werden. Nur so kann die Qualität, Glaubwürdigkeit und Verlässlichkeit von KI-Anwendungen und wissenschaftlicher Forschung nachhaltig gesichert werden.
Strafrechtliche Aspekte: Derzeitige Tatbestände und deren Grenzen
Der deutsche Gesetzgeber kennt keine eigenständige Norm für „Datenverschmutzung„. Dennoch lassen sich einige bestehende Strafnormen heranziehen, wobei diese häufig unzureichend sind, um den komplexen Herausforderungen der modernen Datenwelt und insbesondere der KI-gestützten Datenverarbeitung gerecht zu werden. Die wichtigsten relevanten Tatbestände sind:
- § 303a StGB – Datenveränderung: Diese Vorschrift schützt vor dem rechtswidrigen Löschen, Verändern, Unterdrücken oder Unbrauchbarmachen von Daten. Streng genommen setzt dies eine bewusste und rechtswidrige Handlung voraus. Das heißt: Wer Daten absichtlich manipuliert, um einem anderen zu schaden, kann strafrechtlich verfolgt werden. Allerdings ist der Begriff der „Daten„ im Sinne des Gesetzes technisch eng gefasst, und die Norm zielt vor allem auf direkte Eingriffe in gespeicherte Daten ab. Indirekte Effekte, wie die unkontrollierte Einbindung ungeprüfter oder fehlerhafter Datenquellen in KI-Trainingsdatensätze, werden hier noch nicht ausreichend erfasst.
- § 303b StGB – Computersabotage: Diese Strafvorschrift geht weiter und sanktioniert das erhebliche Stören oder Lahmlegen von Datenverarbeitungssystemen. Besonders schwere Fälle, bei denen zum Beispiel große Vermögensverluste entstehen oder lebenswichtige Infrastrukturen beeinträchtigt werden, können mit Freiheitsstrafen von bis zu zehn Jahren geahndet werden. Die Norm verlangt allerdings eine Störung der Datenverarbeitung selbst – das vermag die langfristige Verzerrung von KI-Ausgaben durch „verschmutzte„ Trainingsdaten nicht vollständig abzubilden, da hier die Manipulation indirekter und systemischer Natur ist. Dennoch bietet § 303b ein Vorbild für die Formulierung strengerer Vorschriften gegen Datenverschmutzung.
- Wissenschaftsbetrug: Im wissenschaftlichen Kontext gibt es bislang keinen einheitlichen Straftatbestand, der Forschungstäuschungen wie die Produktion von „Paper Mills„ oder das systematische Einbringen falscher Daten in Publikationen effektiv erfasst. Dennoch wird dieses Thema zunehmend diskutiert, da die massenhafte Verbreitung von fehlerhaften Studien die Integrität der Forschung massiv gefährdet. Organisierte Formen dieses Betrugs werden teilweise strafrechtlich verfolgt, jedoch fehlt eine klare und einheitliche gesetzliche Grundlage, um diesem Phänomen umfassend zu begegnen.
Diese strafrechtlichen Normen stoßen an ihre Grenzen, weil sie entweder zu allgemein formuliert sind und deshalb nur begrenzt auf die komplexen Phänomene von KI und Big Data anwendbar sind oder umgekehrt zu eng gefasst sind und nur direkte, unmittelbare Datenmanipulationen erfassen. Die strukturellen Risiken, die durch das Einbringen fragwürdiger oder ungültiger Daten in KI-Trainingsprozesse entstehen – mit der Folge systemischer Fehlentwicklungen und unkontrollierter Verfälschung ganzer Datenökosysteme – sind in der aktuellen Rechtslage unzureichend abgedeckt.
Hinzu kommt, dass der technologische Fortschritt und die neuen Datenanwendungsformen eine verbesserte rechtliche Definition erfordern. Es braucht Tatbestandsmerkmale, die sowohl die bewusste als auch die fahrlässige Kontamination von Daten erfassen, insbesondere wenn diese Verschmutzung in großem Maßstab erfolgt und weitreichende Folgen für Wissenschaft, Wirtschaft und Gesellschaft hat. Dies gilt auch für neuartige Datenarten wie Bilder, Videos oder audio-visuelle Medien, deren Integrität überprüfbar gemacht werden muss, etwa durch digitale Prüfsiegel oder andere technische Authentifizierungsverfahren.
Im Vergleich dazu zeigen Umweltstraftaten, wie etwa die Gewässerverunreinigung oder Luftverunreinigung (§§ 324 ff. StGB), dass eng umschriebene, spezifische Tatbestände mit klaren Strafrahmen (bis zu zehn Jahren Freiheitsstrafe bei besonders schweren Fällen) effektiv zur präventiven und repressiven Bekämpfung von systemischen Umweltvergehen eingesetzt werden können. Dieses Modell könnte als Vorlage für einen differenzierten und an die Datenwelt angepassten Straftatbestand dienen, der beispielsweise „Datenverschmutzung„ explizit definiert und mit angemessenen Sanktionen belegt [web:11][web:40][web:41][web:42].
Dringender Reformbedarf: Klare, moderne und scharfe Strafnormen
Angesichts der dramatisch zunehmenden Bedeutung von Künstlicher Intelligenz und Big Data im gesellschaftlichen, wirtschaftlichen und wissenschaftlichen Kontext wird ein eigener, klar definierter Straftatbestand für „Datenverschmutzung„ immer notwendiger. Die bestehenden Strafnormen sind weder technologisch noch sachlich angepasst, um die weitreichenden Gefahren, die durch bewusste oder fahrlässige Manipulation, Verfälschung und Kontamination von Daten entstehen, hinreichend zu adressieren. Ein solcher Strafbestand sollte aus folgenden Gründen dringend formuliert werden:
- Technologische Komplexität und neue Datenrealitäten:
Die alten strafrechtlichen Formulierungen fokussieren vor allem auf direkte Eingriffe in einzelne Datensätze oder Datenverarbeitungssysteme. Sie erfassen jedoch nicht die hochkomplexen und systemischen Risiken, die durch manipulierte Trainingsdaten in KI-Algorithmen entstehen. Hier wirkt sich die Datenverschmutzung durch eine strukturelle und kumulative Fehlerverstärkung aus, die sich auf tausende nachfolgende Anwendungen und Entscheidungen auswirkt. Ein moderner Tatbestand muss daher explizit diese Vielschichtigkeit, Automatisierung und Vernetzung der Datenprozesse berücksichtigen, einschließlich der vielfältigen Datenarten (Texte, Bilder, Videos etc.). - Klarheit und Rechtssicherheit:
Um effektiv gegen Datenverschmutzung vorgehen zu können, sind eindeutige und klar gefasste gesetzliche Regeln unverzichtbar. Die derzeitige Rechtslage lässt viele Grauzonen, etwa, wann die unkontrollierte Nutzung von ungesicherten oder fehlerhaften Daten als strafbar einzustufen ist. Ein klarer Tatbestand schafft Rechtssicherheit für Justiz, Wirtschaft und Wissenschaft und verhindert, dass Täter mangels definierter Normen straflos bleiben. Eindeutige Kriterien schaffen zudem eine verlässliche Basis für die Zertifizierung, Prüfung und Kontrolle von Datenquellen. - Angemessene Sanktionen zur Abschreckung:
Der Strafrahmen muss abschreckend gestaltet sein und sowohl Freiheits- als auch Geldstrafen umfassen, die den Schweregrad der Tat widerspiegeln. Die §§ 303a und 303b StGB (Datenveränderung und Computersabotage) sowie die Strafrahmen für Umweltstraftaten (§§ 324 ff. StGB) bieten hier sinnvolle Orientierungswerte. Bei besonders schweren Fällen, z. B. bei großflächiger Kontamination kritischer KI-Systeme oder systematischer Betrugsproduktion von Paper Mills, sind hohe Freiheitsstrafen bis zu zehn Jahren denkbar und angemessen. Nur so kann die potenzielle Vernichtung von Vertrauen in Technik und Wissenschaft wirksam unterbunden werden. - Schutz der wissenschaftlichen Integrität und Reproduzierbarkeit:
Ein Schwerpunkt sollte auf dem Schutz der Verlässlichkeit wissenschaftlicher Publikationen liegen, da die Verbreitung fehlerhafter oder manipulierter Daten die Grundlage für Forschung und Innovation unterminiert. Paper Mills und systematischer Wissenschaftsbetrug zeigen, wie weitreichend die Folgen sind, wenn gefälschte Datenquellen nicht ausreichend sanktioniert werden. Der neue Straftatbestand sollte deshalb Regelungen und Sanktionen enthalten, die gezielt auf die Sicherstellung der Datenqualität, Transparenz und Reproduzierbarkeit von Forschungsdaten abzielen. Hierzu gehört auch eine Pflicht zur eindeutigen Kennzeichnung und Überprüfbarkeit von Datenherkunft – etwa durch digitale Prüfsiegel und Authentifizierungsverfahren für alle Datenarten.
Zusätzlich markieren neue EU-Regularien wie die KI-Verordnung (KI-VO) bereits den Weg zu einem restriktiven Umgang mit schädlichen und manipulativen KI-Systemen, die sich auf Datenqualität und ethische Grundsätze stützen. Sie verbieten etwa das Inverkehrbringen und die Nutzung von KI-Systemen, die Daten manipulieren oder diskriminierende und unfaire Entscheidungen treffen, und stellen hohe Bußgelder in Aussicht (bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes) [web:47][web:48]. Die nationalen Strafgesetze müssen diese Entwicklungen ergänzen, um auch Täter wirksam zu erfassen, die durch manipulative Datenpraktiken künstliche Intelligenz und Forschung im Großen Maßstab schädigen.
Für die konkrete Ausgestaltung eines Strafbestands „Datenverschmutzung„ empfiehlt sich ein Fokus auf:
- Bewusste oder grob fahrlässige Maßnahmen, die zur Kontamination von Datenquellen mit falschen, unvollständigen oder manipulierten Informationen führen.
- Den nachweislichen Einfluss dieser Kontamination auf KI-Systeme, automatisierte Entscheidungen oder wissenschaftliche Publikationen.
- Pflichten zur Dokumentation, Authentifizierung und Transparenz von Datenherkunft und -qualität, um Verantwortlichkeit sicherzustellen.
Globale Dimension und Notwendigkeit internationaler Zusammenarbeit
Die Problematik der Datenverschmutzung ist kein rein nationales Thema. Künstliche Intelligenz wird global entwickelt und trainiert, Daten und Publikationen zirkulieren weltweit. Lokale oder nationale Einzellösungen reichen nicht aus, um die Gesamtwirkung dieser Gefahren einzudämmen. Im Gegenteil, isolierte Regelungen können durch internationale Datenströme und die weltweite Verfügbarkeit von Informationen unterlaufen werden. Daher ist eine koordinierte, globale Regelung und Zusammenarbeit notwendig, die grenzüberschreitende Standards, gemeinsame Überwachungsmechanismen und koordinierte Strafverfolgungsmaßnahmen umfasst.
Nur durch eng abgestimmte internationale Anstrengungen lassen sich digitale Ökosysteme nachhaltig schützen, Datenqualität insgesamt sichern und der zunehmende Missbrauch von KI-Daten effektiv bekämpfen. Benachteiligte Regionen oder Unternehmen dürfen nicht durch mangelnde Standards oder unzureichende Kontrollen zum Einfallstor für manipulative Daten werden, die globale Reinheit und Integrität der Datenlandschaft gefährden.
Keine Kavaliersdelikte: Die Tragweite der Datenverschmutzung
Die unkontrollierte Flutung von Datenquellen mit ungeprüften oder manipulierten Informationen und deren Weiterverwendung in KI-Trainingsdaten und wissenschaftlichen Publikationen sind keine Bagatellen, sondern stellen ein erhebliches gesellschaftliches und rechtliches Problem dar. Diese Praktiken führen nicht nur zu einer schleichenden, schwer rückverfolgbaren Verfälschung von KI-Ergebnissen, sondern gefährden letztlich die wissenschaftliche Integrität und das Vertrauen in technologische Innovationen.
Das Hauptproblem liegt in der systematischen Wiederverwendung inkonsistenter, unvollständiger oder absichtlich gefälschter Daten in immer neuen Trainingszyklen von KI-Systemen. Weil viele KI-Modelle auf historischen Daten basieren, verstärken und verfestigen sich Fehler oder Manipulationen mit jeder Iteration weiter. Dadurch wird die Nachvollziehbarkeit der trainierten Modelle stark einschränkt, und es entsteht ein kaum zu durchdringendes Dickicht von verzerrten oder falschen Ergebnissen. Dies beeinträchtigt nicht nur Einzelanwendungen, sondern erschüttert auch das Vertrauen in gesamte Forschungszweige und technologische Entwicklungen.
In wissenschaftlichen Publikationen führt die Verbreitung von manipulierten Datenquellen, etwa durch Paper Mills, zu grundlegenden Verzerrungen des Erkenntnisgewinns. Forschungsarbeiten basieren zunehmend auf Daten, deren Authentizität nicht mehr nachvollziehbar ist, was die Reproduzierbarkeit und Validität von Studien entscheidend verhindert. Die Folge ist ein Vertrauensverlust in die Wissenschaft, der sich langfristig auch auf gesellschaftliche und politische Entscheidungsprozesse auswirkt.
Angesichts dieser Gefahren ist eine umfassende rechtliche und technische Antwort unerlässlich, die neben strengeren Strafen auch auf präventive Maßnahmen setzt. Eine zentrale Rolle spielt dabei die Gewährleistung der Integrität aller verwendeten Datenquellen – sei es in Form von Texten, Bildern, Fotografien oder Videos. Die Nachprüfbarkeit und Authentizität dieser Daten müssen jederzeit gewährleistet sein.
Technisch können hierzu digitale Prüfstempel, Signaturen oder Blockchain-basierte Authentifizierungsverfahren beitragen. Diese Technologien ermöglichen eine transparente und nachvollziehbare Verfolgung der Datenherkunft und dokumentieren jede Veränderung an den Daten. Damit kann sichergestellt werden, ob die Daten authentisch und unverändert sind – eine grundlegende Voraussetzung insbesondere für evidenzbasierte Forschung und automatisierte KI-Systeme, die auf verlässlichen Informationen aufbauen müssen.
Zusätzlich ist die Einführung verbindlicher Standards zur Datenzertifizierung notwendig, damit alle Akteure im wissenschaftlichen und technologischen Umfeld sich auf geregelte Qualitätsanforderungen verlassen können. Diese Standards und technischen Schutzmechanismen tragen wesentlich dazu bei, systematische Manipulationen frühzeitig zu erkennen und zu verhindern, was die Stabilität und Verlässlichkeit komplexer Datenökosysteme verbessert.
Zusammenfassend zeigt sich, dass Datenverschmutzung keine Kavalierssache ist, sondern eine ernsthafte Bedrohung für Wissenschaft, Wirtschaft und Gesellschaft darstellt. Sie verlangt eine klare gesetzliche Verankerung, harte Sanktionen für Täter sowie moderne technische Lösungen, um Datenintegrität transparent und dauerhaft sicherzustellen.
Rechtliche und technische Maßnahmen zum Schutz der Datenqualität und -integrität
Der Schutz der Datenqualität und -integrität im Kontext von KI-Training ist von zentraler Bedeutung, nicht nur aus ethischen und wissenschaftlichen, sondern auch aus rechtlichen Gründen. Datenschutzrechtlich ist bereits heute klar geregelt, dass der unkontrollierte Einsatz personenbezogener Daten für KI-Trainings erhebliche Risiken birgt und grundsätzlich nur dann zulässig ist, wenn eine wirksame Rechtsgrundlage gemäß der Datenschutz-Grundverordnung (DSGVO) vorliegt. Dazu gehören insbesondere die ausdrückliche Einwilligung der Betroffenen oder eine andere gesetzliche Erlaubnis nach Art. 6 DSGVO. Andernfalls drohen hohe Bußgelder und Sanktionen, die gemäß Art. 83 DSGVO bis zu 20 Millionen Euro oder vier Prozent des weltweiten Jahresumsatzes erreichen können.
Darüber hinaus sieht die geplante EU-KI-Verordnung (KI-VO) weitere strenge Strafmaßnahmen vor. Sie richtet sich gegen Verstöße gegen Datenqualität und Transparenzpflichten bei KI-Systemen und droht mit Bußgeldern von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes. Diese Regelungen sollen gewährleisten, dass KI-Trainingsdaten nicht nur datenschutzrechtlich zulässig, sondern auch von hoher Qualität und nachvollziehbarer Herkunft sind [web:30][web:31].
Neben diesen gesetzlichen Rahmenbedingungen sind technische Prüfmechanismen essenziell, um schon vor dem Einsatz von Daten im KI-Training deren Authentizität, Integrität und Herkunft sicherzustellen. Unternehmen, Forschungsinstitutionen und Entwickler müssen daher verpflichtet werden, sämtliche Datenquellen transparent zu dokumentieren und mit Prüfstempeln oder digitalen Signaturen zu versehen, die eine Veränderung der Daten erkennen lassen. Diese Maßnahmen erlauben eine lückenlose Nachvollziehbarkeit und verhindern, dass manipulierte oder gefälschte Daten in Trainingsdatensätze gelangen.
Moderne Technologien wie Blockchain bieten hierbei innovative Möglichkeiten. Durch verteilte, unveränderliche Protokollierung lassen sich die Ursprungsdaten fälschungssicher archivieren und jede Änderung transparent dokumentieren. Das ist besonders relevant für multimodale Datenarten wie Texte, Fotos, Videos oder Audiodateien, die in KI-Modellen immer häufiger Verwendung finden. Solche Technologien können zudem zur Erstellung von Trust-Labels oder Datenqualitätszertifikaten eingesetzt werden, die KI-Trainingsdaten standardisiert bewerten und klassifizieren.
Die Kombination aus strengeren rechtlichen Vorgaben und effektiven technischen Prüf- und Authentifizierungsmechanismen erhöht die Datensicherheit und trägt dazu bei, systematische Datenverschmutzungen zu erkennen, zu verhindern und bei Verstößen rechtlich zu sanktionieren. Zudem fördern sie das Vertrauen der Nutzer und der Gesellschaft in KI-Systeme sowie in die wissenschaftliche Forschung, indem sie Transparenz schaffen und Manipulationsmöglichkeiten einschränken.
Zusätzlich zur Sicherstellung von Herkunft und Unversehrtheit der Daten müssen Unternehmen und Forschungseinrichtungen auch umfassende Dokumentationspflichten erfüllen. Das beinhaltet unter anderem die regelmäßige Risikoanalyse, Datenschutz-Folgenabschätzungen (DSFA gemäß Art. 35 DSGVO), und die verpflichtende Veröffentlichung von Prüfberichten, die etwa die Widerstandsfähigkeit von KI-Modellen gegen Datenmanipulation belegen. Nur so lässt sich ein verantwortungsvoller Umgang mit sensiblen und personenbezogenen Daten gewährleisten und gleichzeitig die Innovationsfähigkeit gewahrt bleiben.
Insgesamt ist ein ganzheitlicher Ansatz erforderlich, der rechtliche, technische und organisatorische Maßnahmen miteinander verzahnt. Datenschutzrechtliche Anforderungen, technische Authentifizierungsverfahren und transparente Compliance-Standards müssen Hand in Hand gehen, um die komplexen Herausforderungen der Datenqualität und -integrität im Zeitalter der Künstlichen Intelligenz adäquat zu bewältigen und das Vertrauen aller Beteiligten nachhaltig zu sichern.
Ausblick und Empfehlungen
Die Dringlichkeit einer Neuregelung und klarer Sanktionen in Bezug auf Datenverschmutzung in der KI-Ära ist evident. Ein moderner Straftatbestand sollte nicht nur die Manipulation von Daten erfassen, sondern die gesamte Kette von Datenherkunft bis zur Nutzung in KI-Systemen abdecken. Dabei sind auch technische Maßnahmen zur Nachprüfbarkeit von Datenintegrität zwingend mit einzubeziehen.
Unternehmen und Wissenschaftler sollten sich der Konsequenzen bewusst sein: Die unbedachte Nutzung ungeprüfter Daten kann nicht nur zu strafrechtlichen Folgen führen, sondern auch den Ruf und die Marktposition massiv schädigen. Klare gesetzliche Regeln, Sanktionen und technische Standards zum Schutz der Datenqualität sind daher unerlässlich, um Vertrauen, Transparenz und Fairness im digitalen Zeitalter zu sichern.
Weitere spannende Einblicke und die Diskussion um Paper Mills und Wissenschaftsbetrug finden Sie auf 42thinking.de. Einen umfassenden legalen Überblick zum KI-Datenschutz gibt es bei btl-recht.de und klardenker.kpmg.de.
