msg Logo

Künstliche Intelligenz

Interpretierbares maschinelles Lernen im Versicherungsumfeld – Ziele der Modell-Interpretierbarkeit

Von Thomas Hofmann / 31. Oktober 2024

Im letzten Blogbeitrag wurde genauer auf den Begriff der Erklärbarkeit im Zusammenhang mit KI-Modellvorhersagen eingegangen. Dabei wurde erläutert, dass sich Erklärbarkeit nicht ausschließlich auf die Darstellung von kausalen Zusammenhängen bezieht, sondern stark vom gegebenen Kontext abhängig ist. In diesem Artikel werden nun verschiedene Ziele der Modell-Interpretierbarkeit vorgestellt, die sich aus den unterschiedlichen Anwendungsbereichen für KI-Modelle, den jeweiligen Adressaten und den möglichen Konsequenzen fehlerhafter Vorhersagen ergeben.

Rahmenbedingungen für eine algorithmische Datenverarbeitung

Für die Anwendung sämtlicher Verfahren im Versicherungsbereich gelten dieselben technologieneutralen Rahmenbedingungen, unabhängig von der zugrunde liegenden Modellierungsart. Die Anforderungen, die durch Finanzaufsicht und Gesetzgeber gestellt werden, beinhalten strenge Vorgaben zu Datenqualität und -sicherheit, Fairness und Nichtdiskriminierung sowie zu Stabilität und Erklärbarkeit der Modellergebnisse. Diese Aspekte sind im Zeitverlauf weitgehend unverändert geblieben und müssen stets im Gesamtkontext und nicht isoliert voneinander betrachtet werden. Folglich sind sämtliche Eigenschaften, die bisher für den Einsatz traditioneller statistischer Modelle wie etwa verallgemeinerte Lineare Modelle (GLMs) überprüft wurden, auch für komplexe ML-Verfahren nachzuweisen.

Ziele der Modell-Interpretierbarkeit

Erklärbarkeit ist hierbei nicht nur eine regulatorische Anforderung, sondern von grundlegender Bedeutung, um das Vertrauen in eine Modellentscheidung zu stärken. Die unabhängige, durch die Europäischen Kommission beauftragte High-Level Expert Group on Artificial Intelligence betont, dass der Grad der Erklärbarkeit vom Adressaten, dem Kontext und den potenziellen Folgen einer fehlerhaften Entscheidung abhängt. Je nach Anwender und Einsatzbereich eines KI-Modells ergeben sich unterschiedliche Zielvorstellungen für dessen Nachvollziehbarkeit. Die Notwendigkeit, KI-Systeme bzw. deren Vorhersageergebnisse zu erklären, kann dabei aus mindestens vier Gründen resultieren, wobei sich diese nicht eindeutig voneinander abgrenzen lassen.

 

Explain to Discover: Das übergeordnete Ziel der Data Science besteht darin, aus Daten Erkenntnisse und Zusammenhänge zu gewinnen. Viele Problemstellungen lassen sich durch die Analyse umfangreicher Datensätze und dem Einsatz maschineller Lernmodelle besser lösen. Neben den Daten selbst werden auch die verwendeten Modelle zu einer eigenständigen Wissensquelle. Die Interpretierbarkeit der verwendeten Modelle ermöglicht das Extrahieren zusätzlichen Wissens, das durch das Modell erfasst wird. Dies erlaubt einen tieferen Einblick in die Daten, bei dem auch Zusammenhänge besser erkennbar werden können. Somit besteht die Möglichkeit, Hypothesen über Kausalzusammenhänge aufzustellen.

 

Explain to Improve: Ein weiterer Anreiz zur Entwicklung von interpretierbaren Modellen liegt in der Notwendigkeit ihrer kontinuierlichen Verbesserung. Ein Modell, das verständliche und nachvollziehbare Vorhersagen generiert, kann leichter weiterentwickelt werden und potenzielle Fehler lassen sich einfacher identifizieren. Die Interpretierbarkeit von ML-Modellen ist entscheidend, da nur so deren Ergebnisse getestet und überprüft werden können. Das Verständnis einer fehlerhaften Modellvorhersage bietet klare Ansätze zur Korrektur des Systems.

 

Explain to Justify: Um sicherzustellen, dass KI-gestützte Entscheidungen nicht fehlerhaft sind, ergibt sich ein zunehmender Bedarf an Erklärbarkeit. Der Begriff Erklärung bezieht sich dabei in der Regel auf die Notwendigkeit von Gründen oder Rechtfertigungen für ein spezifisches Ergebnis und nicht auf eine detaillierte Beschreibung des internen Prozesses oder der Logik hinter der Entscheidungsfindung. Ansätze zur Modellerklärung bzw. -interpretierbarkeit liefern dabei die notwendigen Informationen, um Modelle zu validieren bzw. plausibilisieren und deren Ergebnisse zu rechtfertigen, insbesondere wenn unerwartete Entscheidungen getroffen wurden.

 

Explain to control (individual predictions): Eine umfassende Erklärbarkeit ist nicht allein darauf ausgerichtet, das Modellverhalten auf globaler Ebene zu rechtfertigen, sie kann auch dazu beitragen, potenziellen Problemen einzelner Vorhersagen vorzubeugen. Ein tiefgehendes Verständnis des Systemverhaltens liefert zusätzliches Wissen darüber, was in Einzelfällen anders hätte sein müssen, um ein alternatives Ergebnis zu erzielen. Dieser Ansatz trägt maßgeblich dazu bei, eine verbesserte Kontrolle des Systems zu gewährleisten.

 

Zielsetzung verschiedener Modelladressaten

Je nach Anwendungsbereich kommen unterschiedliche Adressaten innerhalb und außerhalb eines Versicherungsunternehmens in ihrer täglichen Arbeit mit KI-Systemen in Berührung. Diese besitzen jedoch in der Regel einen unterschiedlichen fachlichen Hintergrund und Informationsbedarf. Entsprechend der jeweiligen Adressatengruppe wird daher eine der oben genannten Zielsetzungen der Modell-Interpretierbarkeit verfolgt. Im Folgenden wird dies exemplarisch an vier unterschiedlichen Akteuren im Versicherungskontext verdeutlicht.

 

Im Underwriting beispielsweise steht das Prinzip „Explain to Discover“ im Vordergrund. Hierbei möchten Versicherungsunternehmen durch eine detaillierte Datenanalyse verborgene Zusammenhänge und Muster erkennen, die Rückschlüsse auf Risiken eines Versicherungskollektivs erlauben. Die Interpretation des verwendeten Modells hilft dabei, risikorelevante Merkmale zu identifizieren, die die Risikobewertung beeinflussen. Falls das Modell etwa aufzeigt, dass bestimmte Vorerkrankungen überdurchschnittlich häufig zu Leistungsfällen führen, kann dies zur Entwicklung neuer Tarifierungsregeln oder zur Anpassung bestehender führen, um zukünftig verlustreiche Policen zu vermeiden.

 

(Produkt-)Entwickler und Modellierer verfolgen das Ziel „Explain to Improve“ und fokussieren sich auf die Optimierung des Algorithmus, um präzisere Vorhersagen zu ermöglichen und die Leistungsfähigkeit des Modells zu steigern. Die Analyse des Modells spielt dabei eine zentrale Rolle, um Schwachstellen zu identifizieren und Potenziale zur Verbesserung zu erkennen. Dadurch können zum Beispiel genauere Tarifierungsmodelle entwickelt werden, die eine präzisere Berechnung der Versicherungsprämien erlauben, sowie stärker personalisierte Versicherungsangebote, die gezielt auf die individuellen Bedürfnisse und Verhaltensmuster der Kunden abgestimmt sind.

 

Modellvalidierer sind für die Prüfung der Stabilität und Eignung des Modells verantwortlich, insbesondere in Bezug auf regulatorische Vorgaben, was dem Ziel „Explain to Justify“ entspricht. Ihr Hauptziel besteht darin, sicherzustellen, dass die Vorhersagen des Modells korrekt und verlässlich sind. Sensitivitätsanalysen werden hierbei eingesetzt, um zu prüfen, wie empfindlich das Modell auf Änderungen in den Eingangsdaten reagiert. Darüber hinaus stellen Modellvalidierer beispielsweise sicher, dass das Modell keine diskriminierenden Merkmale wie Geschlecht oder religiöse Zugehörigkeit verwendet oder Merkmale, die stark mit solchen korrelieren.

 

Versicherungsnehmer legen ebenfalls großen Wert auf die Transparenz von Modellvorhersagen, wobei hier das Ziel „Explain to Control“ besonders im Hinblick auf die individuelle Prognose im Fokus steht. Diese sollte für ein in der Regel fachfernes Publikum durch einfache, kausale Zusammenhänge nachvollziehbar erklärt werden. Falls ein Kunde erfahren möchte, warum ihm ein Berufsunfähigkeitsschutz verweigert wurde oder bestimmte Leistungen der Krankenversicherung durch die vorrangegangene Risikoprüfung ausgeschlossen sind, hat er ein berechtigtes Interesse an einer verständlichen Begründung. Im Idealfall können konkrete Maßnahmen aufgezeigt werden, mit denen er die Möglichkeit hat, den gewünschten Versicherungsschutz dennoch zu erhalten, auch dann, falls kein Mensch bei der Entscheidungsfindung beteiligt war.

 

Ausblick

Im folgenden Blogbeitrag wird die Taxanomie von Methoden zur Modellerklärbarkeit näher erläutert.

 

[1] BaFin. Maschinelles Lernen in Risikomodellen – Charakteristika und aufsichtliche Schwerpunkte. Link

[2] Deutsche Aktuarvereinigung e.V. (DAV). 2024, Explainable Artificial Intelligence: Ein aktueller Überblick für Aktuarinnen und Aktuare. Link

[3] Adadi and Berrada. (2018). Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI). Link 

Inhaltsverzeichnis

INTERESSE AN MEHR?

Abonnieren Sie unseren Blog und bleiben Sie gut informiert.

Sie können Ihre Zustimmung jederzeit widerrufen