msg Logo

Künstliche Intelligenz

Interpretierbares maschinelles Lernen im Versicherungsumfeld – Begriffsklärung

Von Thomas Hofmann / 15. Februar 2024
Interpretierbares maschinelles Lernen im Versicherungsumfeld – Begriffsklärung

Im Blogbeitrag „Interpretierbares maschinelles Lernen im Versicherungsumfeld – Eine Einführung wurde bereits eine kurze Einführung in die beiden Begriffe Erklärbarkeit und Interpretierbarkeit im Zusammenhang mit KI-Modellvorhersagen gegeben. Dabei wurde erläutert, warum Erklärbarkeit bzw. Interpretierbarkeit im streng regulierten Versicherungsumfeld von entscheidender Bedeutung ist. Der vorliegende Artikel widmet sich nun detaillierter der Frage, was unter diesen beiden Begrifflichkeiten zu verstehen ist und legt somit den Grundstein für eine weiterführende Diskussion, die in den kommenden Blogbeiträgen erfolgen wird. 

Praxisbeispiele: Machine Learning in der Versicherungsbranche

Der Einsatz von Verfahren des maschinellen Lernens (ML), einem Teilgebiet der künstlichen Intelligenz (KI), hat in der Versicherungsbranche eine lange Tradition. Die Kombination aus Vorhersagekraft und Erklärbarkeit hat beispielsweise verallgemeinerte lineare Regressionsmodelle (GLM) zu einer beliebten Wahl für verschiedene Einsatzgebiete im Versicherungsumfeld gemacht. In der Kraftfahrzeugversicherung wird die Anzahl der zu erwartenden Schäden häufig anhand einer Poisson-Verteilung geschätzt, das Ausmaß bzw. die Höhe dieser Schäden anhand einer Gamma-Verteilung. Schadenanzahl und –höhe können auf Basis verschiedener Tarifmerkmale wie Fahrzeugtyp, Motor- und Fahrleistung oder Alter des Fahrers als GLM modelliert werden. Sind die hierbei getroffenen Modellannahmen näherungsweise erfüllt, liefert das GLM verlässliche Vorhersagen und ist wenig anfällig gegen Ausreißer.  

 

Die Analyse innovativer Datenquellen erfordert jedoch verstärkt die Anwendung komplexerer maschineller Lernmethoden, da die Muster in diesen Daten oft mit einfachen Modellen nicht ausreichend erfasst werden können. In dem Blogbeitrag „Künstliche Intelligenz: Use Cases in der Assekuranz (Teil 1)“ und in dessen Fortsetzung „Künstliche Intelligenz: Use Cases in der Assekuranz (Teil 2)“ werden einige Praxisbeispiele aufgezeigt. ML-Modelle wie etwa (D)NNs werden hierbei wegen ihrer hohen Anpassungsfähigkeit und Vorhersagegenauigkeit unter anderem in den Bereichen der Bild- und Spracherkennung eingesetzt. Diese Modelle verfolgen in der Regel den Ansatz, ihre Modellkomplexität durch sogenannte Hyperparameter datengetrieben zu steuern. Diese Flexibilität geht häufig mit einer guten Vorhersageleistung einher, jedoch zulasten der Interpretierbarkeit des Modells. 

Was ist unter Interpretierbarkeit und Erklärbarkeit zu verstehen? 

Wie bei den eben genannten Beispielen exemplarisch zu sehen ist, werden beide Begriffe, Erklärbarkeit und Interpretierbarkeit, in Hinsicht auf KI-Modellvorhersagen oft synonym verwendet. Aktuell gibt es keine anerkannte Definition dieser beiden Begriffe, und es besteht Unklarheit darüber, wie diese Modelleigenschaften gemessen werden können oder sollen. Grundsätzlich haben sowohl Modellerklärbarkeit als auch Modellinterpretierbarkeit das Ziel, das Zustandekommen einer Modellvorhersage verständlicher und nachvollziehbarer zu gestalten, um das Vertrauen in diese Vorhersage zu erhöhen. Der Begriff Interpretierbarkeit lässt sich hierbei beispielsweise verstehen als 

 

Interpretability is the degree to which a human can understand the cause of a decision. “ [1] 

 

Das heißt, je höher die Interpretierbarkeit eines Modells, desto einfacher ist es für jemanden zu verstehen, warum bestimmte Modellentscheidungen getroffen wurden. Ein Modell ist daher besser interpretierbar als ein anderes, falls seine Entscheidungen für einen Menschen leichter nachvollziehbar sind als die Entscheidungen eines anderen Modells.  

 

“To explain an event is to provide some information about its causal history. In an act of explaining, someone who is in possession of some information about the causal history of some event — explanatory information, I shall call it — tries to convey it to someone else.” [2] 

 

D.h.  

 

„An explanation is an assignment of causal responsibility.” [2] 

 

Eine Erklärung stellt demnach eine Zuweisung der kausalen Verantwortung bzw. Ursache dar und bietet auf diese Weise dem Empfänger der Erklärung (Mensch oder Maschine) die Möglichkeit, Verständnis für den Entscheidungsprozess des Modells zu erlangen. Eine Erklärung setzt hierbei die Merkmalswerte der Modelleingabe mit ihrer Modellvorhersage, im Idealfall auf eine für Menschen verständliche Weise, in Beziehung. Die Bewertung des Begriffs verständlich hängt jedoch stark vom konkreten Anwendungsfall und den individuellen Vorkenntnissen des Empfängers ab. Somit beschränken sich Erklärungen nicht ausschließlich auf die Darstellung von kausalen Zusammenhängen; vielmehr sind sie stark kontextbezogen. Obwohl ein Ereignis verschiedene Ursachen haben kann, interessiert sich ein Empfänger oft nur für eine bestimmte Auswahl dieser Ursachen, die im gegebenen Kontext von Relevanz sind.  

Begriffliche Abgrenzung: Algorithm Transparency 

Es ist zu beachten, dass sich hierbei die Begriffe Ursache und Wirkung auf ein bereits vortrainiertes KI-Modell beziehen. Es wird in diesem Zusammenhang nicht berücksichtigt, auf welche Weise das Modell die Beziehung zwischen der Zielvariablen und den erklärenden Variablen aus den Daten erlernt, also welcher Lernalgorithmus dabei zum Einsatz kommt. Die Nachvollziehbarkeit dieses Lernprozesses wird als Algorithm Transparency bezeichnet und ist von den Begriffen Interpretierbarkeit bzw. Erklärbarkeit, wie sie oben eingeführt wurden, abzugrenzen. Algorithm Transparency erfordert lediglich Kenntnisse über den Lernalgorithmus, nicht jedoch über die Daten oder das zugrunde liegende Modell.  

Was bedeutet das für die obigen Praxisbeispiele? 

Im Allgemeinen ist es nicht zwingend notwendig, die vollständige Kausalkette, also die lückenlose Abfolge von Ursache und Wirkung zu verstehen, um eine fundierte Erklärung über das Zustandekommen einer Modellvorhersage abgeben zu können. Im vorherigen Beispiel der Kraftfahrzeugversicherung ist dies jedoch aufgrund der inhärenten Modellstruktur des GLMs gegeben. Das GLM verbindet hierbei die gewichtete Summe der verwendeten Tarifmerkmale mit der erwarteten Schadenanzahl bzw. -höhe durch die Anwendung einer (nichtlinearen) Link-Funktion. Die Modellvorhersage, also Schadenanzahl bzw. -höhe, besitzt somit eine kompakte, von den Tarifmerkmalen abhängige, analytische Formeldarstellung, welche für einen fachkundigen Anwender gut verständlich und nachvollziehbar ist. 

 

Modelle mit einer größeren Anzahl an Merkmalen oder Parametern liegen jedoch oft außerhalb der menschlichen Vorstellungskraft. Ein Merkmals- bzw. Parameterraum mit mehr als drei Dimensionen ist für einen Menschen schlichtweg nicht vorstellbar. Falls Menschen versuchen, ein Modell zu verstehen, fokussieren sie sich in der Regel auf Teilaspekte des Modells, wie beispielsweise die Gewichtsparameter in einem (verallgemeinerten) linearen Modell.

 

In den kommenden Blogbeiträgen soll näher darauf eingegangen werden, welche unterschiedlichen Teilaspekte hierbei von Relevanz sein können und wie diese auch für die zuvor genannten bild- und sprachverarbeitenden Modelle verständlich darstellbar sind. 

 

[1] Molnar, C. (2022). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable (2nd ed.). 
christophm.github.io/interpretable-ml-book/ 

[2] Miller, T. (2017). Explanation in artificial intelligence: Insights from the social sciences. 
Preprint arXiv:1706.07269 

Inhaltsverzeichnis

INTERESSE AN MEHR?

Abonnieren Sie unseren Blog und bleiben Sie gut informiert.

Sie können Ihre Zustimmung jederzeit widerrufen