Es ist wieder einmal ein Heise Artikel über KI, der mir zu denken gibt.
Fabian A. Scherschel schreibt über „Die drei Freiheiten“,
- Die Freiheit, maschinengemachte Entscheidungen zu verstehen,
- Die Freiheit, Entscheider für ihre Systeme zur Rechenschaft zu ziehen,
- Die Freiheit, KI-Entscheidungen anzufechten.
Die Überlegungen von Scherschel sind auf jeden Fall ein interessantes Gedankenspiel.
Verständnis maschinengemachter Entscheidungen
Hier sollte man doch etwas in die Tiefen schauen.
KI gibt es meinem Verständnis nach in mehreren Ausführungen Von schwacher und starker künstlicher Intelligenz – die statistische Big-Data-Analyse1 und Analysen auf Basis neuronaler Netzwerke2.
Schwache KI
Statistische Analysen sind m.E. verhältnismäßig einfach zu durchschauen, weil eine quantifizierbare Anzahl an erfassten Datensätzen mit einer definierten Anzahl an Attributen analysiert werden und die Intelligenz im statistischen Verständnis des Programmierers liegt. Damit ist das Verhalten der „KI“ durchaus analysierbar.
Die verwendeten Attribute und deren Analyseergebnisse müssen „lediglich“ auf ein „paar“ Kriterien untersucht werden, so z.B.:
- Seriösität der Datenquelle3
- Legalität der Datenerfassung4
- Ethik der Zielrichtung der verwendeten Daten5
- Interpretationsspielraum der Analyseergebnisse6
- Kombinierbarkeit von Ergebnissen7
Eine Bewertung der Kriterien könnte in vorgeschriebenen Reviews bereits eine gute Übersicht über das Verständnis der „weichen KI“ bringen. Die Review-Ergebnisse könnte vielleicht sogar für Laien durchaus zu einer begründeten Akzeptanz oder einer Ablehnung der Entscheidungen der KI führen.
Denkt man an Scoring-Ergebnisse als typisches Ergebnis aus weicher KI auf Basis statistischer Verfahren, wäre man vermutlich erstaunt, welche Attribute überhaupt angezogen und mit welcher Interpretation und Wichtung sie in das „Hopp oder Topp“-Ergebnis bei der Kreditwürdigkeit einfließen.
Ein Schelm, wer hier nicht daran denkt, dass einige Attribute bereits meine ersten beiden Kriterien verletzen.
Und so ist es nur verständlich, wenn sich Auskunfteien hinter dem Argument der Geheimhaltung und „Know-How-Schutz“ verstecken und eine Offenlegung vermeiden, um nicht am Pranger von Datendiebstahl oder unethischen Zielrichtungen zu stehen.
Betrachtet man die Kunden der Auskunfteien8, ist die Zielrichtung der Ergebnisse nach Risikominimierung einfach zu verstehen. Wenn aber irgendwann Gewinnmaximierung ohne unternehmerisches Risiko9 erwartet wird, ist das ein klassischer Zielkonflikt.
Starke KI
Wenn neuronale Netze Daten analysieren, sind die erlangten Schlüsse nur noch schwer nachvollziehbar, es sei denn, man würde mit dem Ergebnis auch die Suchvektoren mit deren erlernten Wichtung ausgeben. Und selbst dann dürfte das Ergebnis auch für Experten noch relativ schwer nachvollziehbar sein.
Allerdings kann man sich Gedanken über die Anwendungsgebiete starker KI machen und nach Kriterien bewerten, so z.B.:
- Anwendungsgebiet der KI
- Glaubwürdigkeit der Analyseergebnisse10
- Manipulierbarkeit der Ausgangsdaten11
- Ethik der Zielrichtung der verwendeten Daten
- Interpretationsspielraum der Analyseergebnisse
- Missbrauchspotential der Analyseergebnisse12
- Rückwirkungsgeschwindigkeit der Analyseergebnisse13
Mit Hilfe dieser Kriterien könnte man zumindest einen „Ethik-Index“ für starke KI erarbeiten und darauf aufsetzend Mindestkriterien gesellschaftlich und gesetzlich festlegen.
Haftung/Verantwortung von KI-Anwendern
Die Freiheiten zwei14 und drei16 zu beziffern, wenn man am Beispiel der Schufa-Auskunft bleibend, trotz gegenteiliger finanzieller Situation auf einmal eben nicht kreditwürdig ist?
Eine Auskunftspflicht über die Nutzung von KI17 wäre hier schon einmal eine große Hilfe, um überhaupt eine Grundlage für rechtliche Schritte einleiten zu können.
Für Juristen dürfte die Verwendung von KI sicher nur selten zum bestehenden Wissensschatz gehören, hier ist man auf Experten und Gutachter angewiesen. Dabei stellt sich natürlich die Frage, wer diesbezüglich als Experte/Gutachter ausreichend Kenntnisse aufweist und gegenüber den Anwendern von KI genug Abstand verfügt.
Eine staatliche, von der Industrie unabhängige Institution mit hetrogenen Mitarbeitern18 könnte hier ein Gremium stellen, das anwendungsbezogen zumindest einen Maßstab für KI in seiner Legalität ermitteln könnte.