BLOG | BÜRO DES CTO

Entscheidende Konzepte in der KI: Transparenz und Erklärbarkeit

Lori MacVittie Miniaturbild
Lori MacVittie
Veröffentlicht am 16. Juli 2024

So gut wie jede Umfrage, die sich mit den Bedenken der Industrie im Hinblick auf KI befassen will, wirft alles unter die Überschrift „Sicherheit“. Von Bedenken hinsichtlich des Durchsickerns sensibler Daten bis hin zu Halluzinationen und Voreingenommenheit , von der Ausbeutung durch sofortige Einspeisung bis hin zu Transparenz und Erklärbarkeit – wenn es um KI geht, scheint alles in die Verantwortung der Sicherheit zu fallen.

Jedes dieser Anliegen ist berechtigt und wichtig, aber sie sind alle sehr unterschiedlich und fallen für die meisten nicht in den Zuständigkeitsbereich der Sicherheit.

Heute werden wir uns eingehend mit Transparenz und Erklärbarkeit befassen. Beides sind wichtige Konzepte, die Sie verstehen und in die Praxis umsetzen müssen, wenn Sie KI in Ihrem Unternehmen einsetzen möchten. Dies liegt nicht nur daran, dass sie Vertrauen in das System und die Ergebnisse schaffen; beide Methoden unterstützen auch die Fehlersuche und Fehlerbehebung bei Systemen, insbesondere während der Entwicklung.

Transparenz und Erklärbarkeit

Transparenz und Erklärbarkeit sind wichtige Konzepte im Allgemeinen, sie gelten jedoch besonders für die KI, da die meisten Praktiker – auch in der IT – nicht mit der Funktionsweise dieser Systeme vertraut sind. Beide Konzepte werden häufig im Kontext ethischer KI, verantwortungsvoller KI und KI-Governance diskutiert. Obwohl sie eng miteinander verwandt sind, haben sie unterschiedliche Bedeutungen und dienen verschiedenen Zwecken beim Verständnis und der Steuerung von KI-Systemen.

Der Schwerpunkt bei Transparenz liegt auf der Bereitstellung allgemeiner Informationen über das KI-System für ein breites Publikum, darunter Interessenvertreter und die Öffentlichkeit. Die Erklärbarkeit ist spezifischer und versucht, einzelne Entscheidungen oder Ergebnisse für Benutzer, Entwickler und Interessenvertreter zu verdeutlichen, die das Verhalten verstehen müssen. 

Bei Transparenz geht es darum, das Vertrauen in das System zu fördern, während es bei der Erklärbarkeit darum geht, Vertrauen in bestimmte Ergebnisse herzustellen. Um dies zu erreichen, konzentrieren sich Transparenz und Erklärbarkeit auf unterschiedliche Elemente.

Transparenz: Geben Sie Ihre Quellen an

Transparenz in der KI bezieht sich auf das Ausmaß, in dem Informationen über das Design, den Betrieb und die Entscheidungsprozesse eines KI-Systems für die Beteiligten offen, zugänglich und verständlich sind. Der Schwerpunkt liegt auf einer klaren Kommunikation und Transparenz hinsichtlich der Funktionsweise von KI-Systemen, sodass die Beteiligten die verschiedenen Aspekte des Systems verstehen können.

Zu den wichtigsten Elementen der KI-Transparenz gehören:

  • Design und Entwicklung: Transparenz beinhaltet den Austausch von Informationen über das Design, die Architektur und die Trainingsprozesse von KI-Systemen. Hierzu gehören die Art der verwendeten Daten sowie die implementierten Algorithmen und Modelle. Diese Transparenz ist vergleichbar mit den Offenlegungen von Finanzdienstleistungen, in denen die Anbieter erklären, welche Daten und Gewichtungen bei der Ermittlung Ihrer Hypothekenberechtigung oder des FICO-Scores von Kreditauskunfteien berücksichtigt werden.
  • Daten und Eingaben: Transparenz bedeutet, Klarheit über die Quellen und Arten der Daten zu schaffen, die zum Trainieren und Betreiben des KI-Systems verwendet werden. Dazu gehört auch die Offenlegung jeglicher auf die Eingabedaten angewendeter Datenvorverarbeitung, -transformation oder -erweiterung. Diese Art von Informationen ähnelt Datenerfassungserklärungen, in denen Unternehmen Ihnen mitteilen, welche Daten sie erfassen, speichern und mit wem sie diese möglicherweise teilen.
  • Governance und Rechenschaftspflicht: Bereitstellung von Informationen darüber, wer für die Entwicklung, Bereitstellung und Steuerung des KI-Systems verantwortlich ist. Dies hilft den Stakeholdern, die Verantwortlichkeitsstruktur zu verstehen.

Erklärbarkeit: Zeigen Sie Ihre Arbeit

Unter Erklärbarkeit versteht man in der KI die Fähigkeit, verständliche Gründe oder Rechtfertigungen für die Entscheidungen, Ergebnisse oder das Verhalten des Systems zu liefern. Der Schwerpunkt liegt auf der Erklärung, warum eine bestimmte Entscheidung getroffen wurde, und konzentriert sich darauf, die KI-Ergebnisse für Benutzer und Interessengruppen verständlich zu machen.

Zu den wichtigsten Elementen der Erklärbarkeit von KI gehören:

  • Entscheidungsbegründung: Zur Erklärbarkeit gehört die detaillierte Darstellung der Faktoren und der Logik, die zu einer bestimmten Entscheidung oder einem bestimmten Ergebnis geführt haben. Es beantwortet die Fragen: „Warum hat die KI diese Entscheidung getroffen?“ und „Was hat dieses Ergebnis beeinflusst?“ Dies ist vergleichbar mit dem Durchführen eines Beweises in der Geometrie; Sie müssen sich auf Axiome (Beziehung, Übereinstimmung, Parallelität der Linien usw.) verlassen, um Ihr Ergebnis zu erklären. Mit anderen Worten: Wenn die KI entscheidet, dass 2+2=5 ist, muss sie einen gültigen Grund für diese Entscheidung angeben, z. B. indem sie sich auf ein alternatives mathematisches System stützt oder die Gleichung als literarisches Mittel verwendet.  
  • Interpretierbarkeit des Modells: Um die Erklärbarkeit zu gewährleisten, müssen KI-Modelle interpretierbar sein, damit die Beteiligten die zugrunde liegenden Mechanismen der Entscheidungsfindung verstehen können. Da sich beispielsweise nicht jeder mit Infinitesimalrechnung auskennt, reicht eine Erklärung in Form einer komplexen Gleichung nicht aus. Zwischen der Funktionsweise eines Generative Adversarial Network (GAN) und der eines Convolutional Neural Network (CNN) besteht ein großer Unterschied. Daher ist die Offenlegung des verwendeten Architekturansatzes ein wichtiger Teil der Interpretierbarkeit.
  • Menschliche Verständlichkeit: Die Erklärung muss in einem Format vorliegen, das für Menschen, auch Laien, leicht verständlich ist. Dies erfordert eine einfache und klare Darstellung komplexer KI-Operationen. Sie können die Erklärung nicht im hexadezimalen Format oder mit Code präsentieren. Sie müssen etwas verwenden, das für alle Beteiligten, einschließlich der Rechts- und Compliance-Abteilung sowie der Ingenieure, lesbar ist.

Vertrauen in KI aufbauen

Jede neue Technologie braucht Zeit, um Vertrauen aufzubauen. Vor 15 Jahren vertraute niemand der automatischen Skalierung kritischer Anwendungen, heute jedoch wird sie als grundlegende Funktion erwartet. Es dauert eine Weile, bis die Benutzer bei jeder Art von Automatisierung ihr Vertrauen gewinnen – sei es bei der Lösung komplexer mathematischer Probleme, beim Autofahren oder beim Bezahlen von Rechnungen. Transparenz hinsichtlich des Prozesses und eine Erklärung der Funktionsweise des Systems können wesentlich dazu beitragen, die Lücke zwischen Einführung und Übernahme zu verkürzen.

Transparenz bietet einen umfassenden Überblick über die Funktionsweise des KI-Systems, während die Erklärbarkeit auf die Gründe für bestimmte Entscheidungen oder Ergebnisse eingeht. Beides ist für den Erfolg von KI von entscheidender Bedeutung und dafür, dass Unternehmen von ihren Vorteilen in Form von besserem Kundenservice, gesteigerter Produktivität und schnellerer Entscheidungsfindung profitieren.

Und beides fällt nicht in den Zuständigkeitsbereich der Sicherheit.