Anwendungsbeispiele für die Interpretierbarkeit von Modellen und Systemen der Künstlichen Intelligenz in Wirtschaft und Wissenschaft

Die Interpretierbarkeit ist eine Schlüsselkomponente eines jeden Modells oder Systems der künstlichen Intelligenz und entscheidend für den Erfolg seiner Anwendungen in Wirtschaft und Wissenschaft. Modelle, die nicht interpretierbar sind, können für ein Unternehmen nachteilig sein. Ein falsches Modell kann beispielsweise zu geschäftlichen Verlusten führen oder sogar rassistische Vorurteile hervorrufen. Folglich müssen Modelle, die einen bedeutenden Einfluss haben, interpretierbar sein.

Erklärbare KI

Bei einigen Anwendungen erfordert die Interpretierbarkeit keine große Ausarbeitung. Zum Beispiel kann ein optisches Zeichenerkennungssystem das Bild eines Briefumschlags verarbeiten, um die Adresse zu extrahieren. Solche Systeme wurden bereits ausführlich untersucht und bewertet. Die fehlende Interpretierbarkeit in einem solchen Fall ist auf die unvollständige Formalisierung des Problems zurückzuführen.

Um eine vertrauensvolle Beziehung zwischen Menschen und KI aufzubauen, müssen Unternehmen erklärbare KI-Modelle und -Systeme entwickeln. Dieser Ansatz kann ihnen helfen, bessere Entscheidungen zu treffen und riskante Situationen zu vermeiden. Erklärbare KI-Modelle sind nicht nur benutzerfreundlicher, sondern auch ethisch und praktisch. Sie ermöglicht es Unternehmen, rechtliche Probleme zu vermeiden und das Vertrauen ihrer Kunden zu gewinnen.

Es gibt vier Schlüsselkriterien, die die Interpretierbarkeit eines Systems bestimmen. Eines dieser Kriterien sind die Daten, die die Entscheidung beeinflusst haben. Die Daten müssen so genau wie möglich sein. Sie sollten auch so nah wie möglich an den ursprünglichen Eingaben liegen. Eine weitere wichtige Eigenschaft, die es zu berücksichtigen gilt, ist die Sparsamkeit der Eingaben. Kleinere Eingaben sind besser zu interpretieren als große Zahlen.

Wenn es um die Interpretation von KI-Modellen und -Systemen in der Wirtschaft geht, brauchen Datenwissenschaftler Werkzeuge, um zu überprüfen, ob das Modell fair ist. Außerdem müssen sie den Endnutzern die Möglichkeit geben, zu verstehen, wie das Modell funktioniert und wie es verbessert werden kann.

Verallgemeinerte additive Modelle

Das verallgemeinerte additive Modell (GAM) ist eine Technik des maschinellen Lernens, die ein additives Modell zur Anpassung von Daten verwendet. Es ähnelt anderen maschinellen Lerntechniken wie Netzwerken, grafischen Modellen und baumbasierten Methoden. Es liegt zwischen vollparametrischen linearen Regressionsmodellen und nichtparametrischen Ansätzen. Verallgemeinerte additive Modelle verwenden ebenfalls einen algorithmischen Ansatz.

Das GAM ist eine Erweiterung des verallgemeinerten linearen Modells, das zur Schätzung von Daten in verschiedenen Bereichen verwendet wird. Im Gegensatz zu verallgemeinerten linearen Modellen wird bei verallgemeinerten additiven Modellen den Prädiktorvariablen keine parametrische Form auferlegt. Vielmehr gehen sie davon aus, dass die Antwortfunktion glatt und additiv ist, was alternative Verteilungen zulässt.

Im Allgemeinen passen GAM und GAMPL verallgemeinerte additive Modelle durch Schätzung ihrer Glättungsparameter an. Sie haben unterschiedliche Ansätze, wobei GAMPL globale Modellbewertungskriterien zur Schätzung der Glättungsparameter verwendet. Bei der GAM-Methode werden partielle Residuen mit Glättungsparametern verglichen. Dieses Verfahren funktioniert entweder mit einer einzelnen Maschine oder mit einem verteilten Modell.

LIME

Im Gegensatz zur traditionellen linearen Modellregression interpretiert LIME die Daten, indem es Stichproben von Instanzen nimmt und Vorhersagen auf der Grundlage der lokalen Interpretation dieser Instanzen trifft. Dieser Ansatz ist modellunabhängig, was bedeutet, dass er keine Annahmen über das Verhalten des Modells macht. Er hat außerdem den Vorteil, dass er auch von Nichtfachleuten leicht verstanden werden kann.

Der erste Schritt in LIME besteht darin, einen Datensatz zu erstellen, aus dem zufällige Wörter entfernt wurden. Dann verwendet LIME binäre Merkmale für jedes Wort. Wenn ein Wort enthalten ist, wird es als “1” dargestellt und “0”, wenn es entfernt wurde. Die Technik kann für Bild- und Textdaten verwendet werden.

LIME kann die Interpretierbarkeit von SAS-Modellen verbessern. Die Model Studio-Anwendung der Software generiert Cluster auf der Grundlage der Trainingsdaten und verwendet Clusterschwerpunkte, um lokale Modellerklärungen für die Cluster zu erstellen. Auf diese Weise können neue Beobachtungen einer Erklärung zugeordnet werden, die einem Cluster am nächsten liegt, sofern eine solche existiert. Diese Funktion kann auch auf Einzelbeobachtungen angewendet werden.

In den letzten Jahren hat das Interesse an der Interpretierbarkeit von Modellen wieder zugenommen. Während es schwierig ist, das Verhalten eines komplexen Modells mit menschlichen Begriffen zu erklären, verstehen ML-Experten die Bedeutung dieses Aspekts der Leistung eines Modells. LIME, eine Python-Bibliothek, die dieses Problem lösen soll, erzeugt lokal getreue Erklärungen für die Ergebnisse von Modellen des maschinellen Lernens.

Aufmerksamkeitstechniken

Interpretierbarkeit bezieht sich auf die Fähigkeit eines Systems oder Modells, seine Aktionen zu erklären. Diese Fähigkeit ist in vielen Situationen wichtig, z. B. im Finanzwesen, im Gesundheitswesen und sogar bei selbstfahrenden Autos. Während einige Modelle ihre Entscheidungen erklären können, ist dies bei anderen nicht möglich. Modelle, die das Potenzial haben, die Welt zu beeinflussen, müssen jedoch interpretiert werden, um Fehler oder negative Ergebnisse zu vermeiden.

Die Interpretierbarkeit ist in Situationen, in denen viel auf dem Spiel steht, noch wichtiger. Bei vielen neuen KI-Anwendungen geht es beispielsweise um Entscheidungen über knappe Ressourcen, und die Menschen verlangen Erklärungen für die getroffenen Entscheidungen. Diese Bedenken sind jedoch nicht immer mit den Einsätzen verbunden und können daher die Einstellung zu KI beeinflussen.

KI kann für die Beschleunigung einer Reihe von Prozessen nützlich sein, z. B. für die Analyse von DNA- oder Videodaten und die Vorhersage von Verbrechen. Das System kann auch eingesetzt werden, um potenzielle Verzerrungen in Trainingsdaten zu erkennen. Diese Technologie befindet sich zwar noch im Anfangsstadium, wird aber wahrscheinlich in der Wirtschaft immer häufiger eingesetzt werden.

Die Interpretierbarkeit ist ebenfalls wichtig, um das Vertrauen in KI-Modelle zu stärken. Das System sollte seine Vorhersagen so erklären, dass sie nachvollziehbar und genau sind. Wenn ein Modell beispielsweise eine Vorhersage macht, die mit hoher Wahrscheinlichkeit falsch ist, ist es für das Unternehmen möglicherweise keine gute Idee.

Einsätze

Da der Einsatz von KI-Modellen und -Systemen immer weiter verbreitet ist, sind Regulierungsmaßnahmen erforderlich, um ihre angemessene Nutzung zu gewährleisten. Obwohl es KI-Systemen an Transparenz mangelt, haben Wissenschaftler und Regierungen begonnen, neue Regulierungsmaßnahmen zum Schutz von Verbrauchern und Unternehmen vorzuschlagen. Zu diesen Maßnahmen gehören Modellzertifizierungen und laufende Prüfungen durch Dritte. Prüfungen und Bewertungen durch Dritte sind wichtig, um die Genauigkeit und Integrität von Algorithmen zu gewährleisten.

Eine häufige Sorge von Führungskräften in Unternehmen ist die Datenqualität, die zum Trainieren von KI-Modellen verwendet wird. Schlechte Datenqualität ist einer der häufigsten Gründe für gescheiterte KI-Projekte. Im traditionellen Unternehmensmodell wurden die Daten so strukturiert und kategorisiert, wie sie von der Quelle kamen. Dies erleichterte die Nutzung der Daten.

KI ist am besten, wenn sie von guten Daten umgeben ist, aber schlechte Daten können zu unbeabsichtigten Verzerrungen führen. Schlechte Daten können rassistische, geschlechtsspezifische, politische, soziale, ideologische und andere Arten von Vorurteilen enthalten. Leider konzentrieren sich nur wenige KI-Teams auf die Beseitigung voreingenommener Daten und stellen sicher, dass die KI frei von Vorurteilen ist.

Knappheit

Wenn Menschen Entscheidungen über die Zuteilung von knappen Ressourcen treffen, ist die Bedeutung der Interpretierbarkeit größer. In einem solchen Szenario verlangen die Menschen mehr Erklärungen, insbesondere bei KI-generierten Entscheidungen, bei denen viel auf dem Spiel steht. Dies macht die Interpretierbarkeit zu einem wesentlichen Schutz für ethische KI-Systeme.

Die Forscher analysierten die Interpretierbarkeit in zwei separaten Studien anhand von Daten aus realen Anwendungen. Die Studien verwendeten ein Panel von Teilnehmern und zwei Modelle für die Entscheidungsfindung. Sie verwendeten ordinale Regressionsmodelle mit gemischten Effekten, um die Auswirkungen von Einsätzen und Knappheit auf die Interpretierbarkeit zu untersuchen.

Die Interpretierbarkeit ist ein wichtiges Attribut von KI-Modellen und -Systemen, wird aber oft geopfert, um ein höheres Maß an Genauigkeit zu erreichen. Dieser Kompromiss kann zur Verbreitung von KI-Systemen führen, die ethische Entscheidungen mit großer Tragweite treffen. Die Interpretierbarkeit ist jedoch für Anwendungen, bei denen es um viel Geld und knappe Ressourcen geht, wichtiger als für Anwendungen, bei denen es um weniger Geld geht.

ML-Modelle können lesbarer und verständlicher gemacht werden, wenn sie auf interpretierbaren Daten beruhen. Mithilfe interpretierbarer Daten können ML-Modelle Entscheidungen treffen, denen die Menschen vertrauen können. Außerdem können die von diesen Modellen erzeugten Informationen den Menschen helfen, mehr über die Modelle und ihre Verwendung zu erfahren. Dies ist ein wesentliches Merkmal für selbstfahrende Autos und medizinische Anwendungen.

Bewertung der Interpretierbarkeit durch den Menschen

Um die Bewertung von Modellen und Systemen der künstlichen Intelligenz in der Wirtschaft durch den Menschen zu verstehen, ist es wichtig zu wissen, wie diese Systeme funktionieren. Bei komplexen Systemen kann mangelndes Verständnis zu unbeabsichtigten negativen Folgen führen. So kann beispielsweise ein Arzt, der die Wirkungsweise eines Medikaments nicht vollständig versteht, ein Medikament verschreiben, das möglicherweise schädliche Nebenwirkungen hat. Darüber hinaus wird die Anhäufung intellektueller Schulden in KI-Systemen wahrscheinlicher, wenn KI-Anwendungen miteinander kombiniert werden, z. B. bei Entscheidungen darüber, wer knappe medizinische Behandlungen erhält.

Mehrere Faktoren bestimmen die Bewertung von KI-Systemen durch die Menschen. Die Höhe des Einsatzes, die Knappheit und die Relevanz der Entscheidung können die Wahrnehmung der Interpretierbarkeit durch die Menschen beeinflussen. Im Allgemeinen legen die Menschen großen Wert auf die Genauigkeit der KI, aber weniger auf ihre Interpretierbarkeit. Daher sind die Menschen bereit, beim Tausch von Eigenschaften die Interpretierbarkeit zugunsten der Genauigkeit zu opfern. Wenn viel auf dem Spiel steht und die Ressourcen knapp sind, ziehen Menschen genaue Entscheidungen denen vor, die nicht genau sind.

Eine kürzlich durchgeführte Studie ergab, dass die KI-Autonomie die Einstellung der Menschen zur Interpretierbarkeit beeinflussen kann. Die Teilnehmer wurden in zwei Gruppen aufgeteilt. Die eine Hälfte las die Empfehlungsversion, die andere Hälfte die Entscheidungsversion. Die letztere Version beschrieb, wie das KI-System für den menschlichen Benutzer entscheiden würde.

Ähnliche Themen