Zurück zum Blog

Explodieren

Dr. Kevin Bauer
Akademisch

Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich mit der Synthese menschlicher Intelligenz beschäftigt. Das Fachgebiet stützt sich auf verschiedene Disziplinen, darunter Psychologie, Neurobiologie, Verhaltenswissenschaften und Ingenieurwissenschaften.

Während das Ziel, einen intelligenten Agenten zu konstruieren, der umfassende, kreative Problemlösungsfähigkeiten besitzt, die mit denen des Menschen vergleichbar sind, auf absehbare Zeit außer Reichweite zu sein scheint, sind KI-Anwendungen bereits Teil unseres Alltags.

Beliebte Beispiele sind u. a. intelligente Assistenten (z. B. Siri von Apple oder Alexa von Amazon), Objekterkennung (automatische Fotobeschreibung bei Instagram) und intelligente Empfehlungen (z. B. Filmempfehlungen bei Netflix).

Die leistungsstärksten KI-Anwendungen wie Deep Convolutional Neural Networks oder Recurrent Neural Networks nutzen große Mengen komplexer Trainingsdaten, um verborgene Muster zu erkennen und schließlich hochpräzise Vorhersagen über unsichere (zukünftige) Zustände zu treffen. Die hohe Vorhersageleistung moderner maschineller Lernmodelle geht häufig auf Kosten der Transparenz und Interpretierbarkeit der Vorhersagen, da Maschinen keine für den Menschen interpretierbaren Informationen darüber vermitteln können, warum sie zu bestimmten Ergebnissen kommen. Aus diesem Grund werden Anwendungen des maschinellen Lernens oft als Blackboxen bezeichnet, deren Funktionsweise weder von Experten noch von menschlichen Nutzern vollständig verstanden wird. Die mangelnde Interpretierbarkeit kann aus mehreren Gründen bedenklich sein.

Erstens führt die Undurchsichtigkeit der maschinell erzeugten Ergebnisse zu Problemen bei der Rechenschaftspflicht, der Verantwortung und der Prüfung. Dies erschwert natürlich die Möglichkeit, voreingenommene oder diskriminierende Ergebnisse zu erkennen und erschwert die Klärung von Haftungsfragen. Zweitens: Wenn menschliche Entwickler/innen und Nutzer/innen keine Erklärungen über die innere Logik von KI-Anwendungen erhalten, wird ihnen die Möglichkeit genommen, das Systemdesign zu verbessern, aber auch neue Erkenntnisse von der Maschine zu lernen, die die menschlichen Problemlösungsfähigkeiten verbessern können. Vor allem der letztgenannte Aspekt ist ein wesentliches Hindernis für die Fähigkeit der KI, die wirtschaftliche Effizienz und das menschliche Wohlergehen zu verbessern, indem sie neues, in komplexen Big Data verborgenes Fachwissen aufdeckt. Drittens kann sich die Blackbox-Natur von Anwendungen des maschinellen Lernens negativ impact auf das Vertrauen der Menschen in ihre Leistung auswirken, was ihre Akzeptanz letztlich behindert.

Das Ziel von eXplainable Artificial Intelligence (XAI) ist es, die skizzierten Probleme, die mit dem Blackbox-Charakter verbunden sind, zu entschärfen, indem die Verarbeitungsschritte der KI zwischen Input und Output auf eine für Menschen verständliche Weise erklärt werden. Es gibt verschiedene Ansätze, um die Blackbox zu knacken. Auf einer hohen Ebene kann man zwischen intrinsischen Erklärungsmethoden und posthoc-Erklärungsmethoden unterscheiden.¹

Intrinsische Methoden sind Modelle, die von Natur aus selbsterklärend sind und eine unmittelbare, für den Menschen lesbare Interpretation liefern, wie sie bestimmte Dateneingaben in Ausgaben umwandeln. Es handelt sich um relativ einfache Modelle, deren innere Struktur Menschen ohne zusätzliche Transformationen verstehen können. Bei Post-hoc-Methoden hingegen geht es darum, die Interpretierbarkeit eines bestimmten komplexen maschinellen Lernmodells durch die Konstruktion eines zweiten, einfacheren Modells (eines sogenannten Surrogatmodells) zu erreichen, das das Verhalten des komplexeren Modells annähert, aber für den Menschen interpretierbar ist.

In Anbetracht der Tatsache, dass sich KI-Anwendungen in der Regel durch eine hohe Skalierbarkeit auszeichnen, ist es ermutigend, dass Forscher/innen, politische Entscheidungsträger/innen und Praktiker/innen gleichermaßen zunehmend Standards für Erklärungen darüber fordern, wie und warum eine KI-Anwendung eine bestimmte Leistung erbringt. Eine wachsende Zahl von Regulierungsbestrebungen, wie z. B. die europäische Datenschutzverordnung oder die Verordnung über den freien Verkehr nicht-personenbezogener Daten, setzen sich dafür ein, dass Menschen, die mit KI-Anwendungen interagieren, und insbesondere die von ihnen Betroffenen, ein Recht auf Aufklärung haben.

Die Förderung der Interpretierbarkeit von KI-Anwendungen ist unter verschiedenen Gesichtspunkten wünschenswert, aber es gibt auch potenzielle Nachteile. Es ist nicht immer möglich, Systeme für den Menschen interpretierbar zu machen, ohne erhebliche Leistungseinbußen hinnehmen zu müssen. In Situationen, in denen eine hohe Genauigkeit der KI-Vorhersagen wichtiger ist als eine hohe Transparenz (z. B. bei der korrekten Erkennung von Krebs), kann es unerwünscht sein, KI-Systeme interpretierbar zu machen. Ein weiteres Problem ist der Schutz der Privatsphäre. Wenn Systeme interpretierbar gemacht werden, können manchmal sensible (persönliche) Daten offenbart werden, die bestimmte Interessengruppen strikt ablehnen oder die sogar gesetzlich verboten sind. Es ist wichtig zu bedenken, dass auch Erklärungen nicht korrekt sind und (absichtlich) irreführend sein können.

Dies kann dazu führen, dass sich Nutzer und Zielpersonen eher auf die Ergebnisse der KI verlassen und ihnen folgen, auch wenn sie falsch sind. Ebenso können die Beobachter/innen von Erklärungen Erkenntnisse über die Beziehung zwischen den Ein- und Ausgaben des KI-Systems gewinnen, die es ihnen ermöglichen, das System auszutricksen (z. B. zu verstehen, wie man beim Steuerbetrug nicht entdeckt wird) oder ihre Wahrnehmungen in unerwünschter Weise anzupassen (z. B. zu erkennen, dass das Geschlecht eine Determinante für die Neigung einer Person ist, hart zu arbeiten).

Wie bei vielen Methoden und Anforderungen gilt auch bei diesen Techniken, dass eine Größe wahrscheinlich nicht für alle passt. Verschiedene Interessengruppen benötigen unterschiedliche Erklärungen. Entwickler und Personen, die für die Wartung von KI-Anwendungen verantwortlich sind, benötigen zum Beispiel eine detailliertere Erklärung der spezifischen inneren mathematischen Berechnungen als die Endnutzer, die eine Erklärung der wichtigsten Determinanten der Ergebnisse auf hoher Ebene benötigen.

¹Für weitere Informationen siehe: Bauer, K., Hinz, O., van der Aalst, W., & Weinhardt, C. (2021). Expl (AI) n It to Me-Explainable AI and Information Systems Research

Um ein lebenslanges Lernen zu ermöglichen und die Fähigkeiten des 21. Jahrhunderts im Bereich KI zu erlangen, solltest du dich über den B.Sc. in AI & Sustainable Technologies informieren.

Dr. Kevin Bauer
Akademisch
Dr. Kevin Bauer
Akademisch

Nimm an unserer Lernerfahrung teil

Verwandte Beiträge