Nebelkerze KI-Warnung

Namenhafte Investoren warnen vor KI – so die Meldungen der letzten Tage. 

Aus jedem Tümpel die gleichen Unkenrufe, so kommt es mir vor. Aber was steckt dahinter? 

Mein Verständnis für KI habe ich ja in verschiedenen Beiträgen bereits versucht darzulegen. Grobe Zusammenfassung? KI1 ist ein Werkzeug, dass auf Basis von einer Unmenge an relevanten (Vergleichs)Daten2, statistischen Berechnungen und Wahrscheinlichkeiten ein definiertes Problem löst. 42. Genau hier haben wir schon ein Dilemma – das definierte Problem bzw. die Fragestellung. 

KI erfordert eine sehr konkrete Fragestellung, mindestens aber so konkret wie bei Douglas Adams im Hitchhiker. Die Konzeption von KI ist also Menschenwerk und der Mensch schafft sich Werkzeuge.

Tools wie ChatGBT sind nun in der Welt und ja, wir brauchen Regeln, Regeln, um der Büchse der Pandora Einhalt zu gebieten. Aber Moment, geht das überhaupt? Nach der griechischen Mythologie sind die Laster und Untugenden der Büchse „entwichen“, eine Chance sie zurückzuholen gibt es nicht.

Wie das Corona-Virus nicht aus der Welt eliminiert werden kann, wird es für bestehende Technologie ebenso unmöglich sein.

Stellt sich also die Frage, warum genau jetzt der Aufschrei, der Forderung nach Reglementierung?

Weil sie logisch klingt und zeitlich in den Ablauf passt. Schauen wir doch aber mal genau ins Detail.

Eine Anwendung von KI sind Auskunfteien, die Schufa zum Beispiel. Diese ist doch aber ein alter Hut?! Wer fordert denn hier Reglementierung? Niemand aus der Wirtschaft, weil das Rating der Anderen Sicherheit gibt und das eigene Rating nicht gefährdet werden darf/soll.

KI hat Popularität durch ChatGPT erlangt und man springt einfach auf diesen Bekanntheitsgrad auf. Vorher war KI nur schwer zu vermitteln, zu erklären. Jetzt gibt es auf einmal ein vergleichsweise einfach bedienbares Tool mit erstaunlichen Ergebnissen. Dass Adobe Photoshop und Lightroom die KI bereits fleißig nutzt3, wird hierbei einfach verschwiegen. Und ja, ich nutze diese KI mit Freude!

Auch in der Medizin wird die KI erfolgreich eingesetzt und kann histologische Befunde schneller, besser und präziser bestimmen, als der Pathologe am Mikroskop. Lernen von jedem einzelnen Befund im Sinne von Vergleichsdaten s. Anfang, ist Grundprinzip und ein Mittel der ständigen Verbesserung.

Angst? Die hätte ich in dem Falle eher vor einem überlasteten Pathologen, der Fehldiagnosen abgibt.

Angst ist aber etwas wunderbares – es fördert die Bereitschaft des Menschen, etwas zu tun, die Gründe für die Angst abzuschwächen oder sogar zu eliminieren.

Wäre es also nicht ein tolles Geschäftsmodell, den Schutz vor KI-Manipulationen im preisgünstigen Abo-Modell an die Bevölkerung abzugeben? Wird hier nicht gerade ein Markt geschaffen? 

Ian Hogarth, einer der Unterzeichner des offenen Briefes gegen KI, hat Artifical Intelligence an der Universität von Cambridge studiert und sein Geld mit der Musikplattform Songkick gemacht, einer Plattform, die auf Kundenbedürfnisse reagiert. Wie mir scheint, ist ihm der Otto Normalverbraucher als Finanzierungshilfe durchaus bewusst. 

Elon Musk hat ebenfalls unterschrieben. Altruismus würde ich bei ihm nun am Wenigsten erwarten. Und hoppla, er will einen eigenen „ChatGBT“-Klon schaffen, mit seinem Verständnis (für Wahrheit). Ein Moratorium würde hier doch etwas Zeit verschaffen, die ihm scheinbar fehlt.

Es haben auch diverse Professoren und andere hochrangige Leute unterschrieben, aus welchem Grund jeweils, das sei dahin gestellt. Wichtig ist nur, die Gründe zu hinterfragen.

Um mich nicht falsch zu verstehen, KI ist – je nach Anwendung – nicht ungefährlich. Spätestens der ständig steigende Energie- und Kühlungsbedarf der Großrechner stellt ein Risiko für die Menschheit dar. Militärische Anwendungen mal ganz abgesehen – hier geht es schließlich um die Ausübung von Gewalt.

Eine Familie vernichten kann KI aber auch jetzt schon, wenn z.B. Kredite wegen nicht nachvollziehbar generierten Schufa-Einträgen nicht vergeben werden.

Der offene Brief für ein Moratorium in der Entwicklung von KI ist für mich eine Nebelkerze, ein Marketing-Werkzeug. Natürlich kann man Regeln aufstellen, und genauso natürlich werden sie gebrochen oder zumindest für Gewinnmaximierung „optimiert“, was die Vergangenheit4 immer wieder eindrucksvoll bewiesen hat.

Angst darf nicht wie eine Soße über das Thema gekippt werden.<span class="su-quote-cite"><a href="https://www.zdf.de/nachrichten/digitales/gefahren-kuenstliche-intelligenz-entwicklung-stopp-gpt-100.html" target="_blank">Jessica Heesen, Universität Tübingen</a></span>

Behalten wir KI durchaus im Auge, verbleiben aber mit den berühmten Worten des Hitchhikers:

Don’t Panic

 

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.