msg Logo

Künstliche Intelligenz

Interpretierbares maschinelles Lernen im Versicherungsumfeld – Eine Einführung

Von Thomas Hofmann / 17. Juli 2023

Mittlerweile vergeht fast kein Tag, an dem nicht von künstlicher Intelligenz (KI) in den Medien die Rede ist. Spätestens mit „ChatGPT“ ist das Thema KI auch in der Mitte der Gesellschaft angekommen. Bei diesem sprachbasierten KI-Modell handelt es sich um einen Chatbot, der darauf trainiert wurde, natürliche Sprache als Modelleingabe zu verstehen und kontextbezogene, für Menschen verständliche Antworten als Modellvorhersage zu generieren. In diesem Zusammenhang wird derzeit diskutiert, wie beispielsweise die Authentizität von Aufsätzen und Heimarbeiten an Schulen sichergestellt werden kann oder wie es möglich ist, sich beim täglichen Umgang mit sozialen Medien vor Falschinformationen zu schützen.

 

Fragt man ChatGPT zu potenziellen Einsatzbereichen und wozu es nützlich sei, bekommt man als Antwort:

 

ChatGPT ist ein mächtiges Werkzeug für die Sprachverarbeitung, das in vielen Bereichen eingesetzt werden kann…“.[1]

 

Dabei werden Bereiche wie Kundensupport, E-Commerce, Bildung, Gesundheitswesen, Rechtswesen und auch Finanzdienstleistungen genannt. Weiter heißt es:

 

ChatGPT ist nützlich, da es eine schnelle und effektive Möglichkeit bietet, mit Benutzern in natürlicher Sprache zu interagieren und ihnen zu helfen, ohne dass menschliches Eingreifen erforderlich ist“. [1]

 

Da sich der Anwender angeblich auf die gegebenen Antworten, d.h. auf die jeweiligen Modellvorhersagen, stützen kann, ohne dass diese durch menschliche Hilfestellung verifiziert wurden, drängt sich die Frage auf, wie verlässlich und inhaltlich korrekt die gegebenen Antworten sind.

 

Nachvollziehbare Modellvorhersagen

Wie nachvollziehbar und vertrauenswürdig eine Modellvorhersage auf Grundlage der Modelleingabe sein sollte, ist im Allgemeinen je nach Anwendungsfall zu bewerten. Ist man beispielsweise an Filmvorschlägen auf Basis seiner drei Lieblingsfilme interessiert, spielt die Transparenz über das Zustandekommen der gegebenen Empfehlungen eher eine untergeordnete Rolle. Im schlimmsten Fall war der darauffolgende Filmeabend nicht so gelungen wie erhofft. Im stark regulierten Finanzdienstleistungssektor gestaltet sich die Situation jedoch anders. Will ein Kunde wissen, warum der beantragte Kredit nicht bewilligt wurde oder der angefragte Berufsunfähigkeitsschutz verwehrt bleibt, hat er ein berechtigtes Interesse daran, die Gründe dafür zu erfahren. Diese müssen auch dann nachvollziehbar und transparent dem Kunden erklärt werden können, falls kein Mensch bei der Entscheidungsfindung beteiligt war. Transparenz und Vertrauen haben speziell in der Banken- und Versicherungsbranche oberste Priorität!

 

Richtlinien und regulatorische Vorschriften

Bei finanziellen Angelegenheiten können falsch getroffene Entscheidungen weitreichende und oft unvorhersehbare Folgen mit sich bringen. Aus diesem Grund ist der Einsatz einer vertrauenswürdigen und transparenten KI im Versicherungsumfeld entscheidend. In dem vorangegangenen Blogbeitrag Vertrauenswürdige künstliche Intelligenz im Versicherungsumfeld wurde bereits kurz erläutert, welchen Richtlinien eine vertrauenswürdige KI folgen muss und welche Anforderungen sich daraus für die Versicherungsbranche ableiten lassen. Diese Anforderungen gelten nicht nur für den deutschsprachigen Versicherungsmarkt, sondern auf ganzer EU-Ebene. Genauer ist dies in dem 2021 veröffentlichten Bericht: „Artificial Intelligence Governance Principles: Towards Ethical And Trustworthy Artificial Intelligence In The European Insurance Sector” [2] der Europäische Aufsichtsbehörde für Versicherungswesen und betrieblicher Altersversorgung (EIOPA) festgehalten. Die zentralen Anforderungen, die dabei beschrieben und näher ausgeführt werden, sind: Nichtdiskriminierung und Fairness, verantwortliches menschliches Handeln und Aufsicht, Datenschutz und Datenverwaltung, technische Robustheit und Sicherheit sowie Transparenz und Erklärbarkeit.

 

Die Europäische-Union geht in diesem Zusammenhang mit dem „Artificial Intelligence Act“ (AI Act) noch einen Schritt weiter. Der AI Act ist eine geplante EU-Verordnung, für die das EU-Parlament im April 2021 einen ersten Vorschlag vorgelegt hat, der seitdem von den zuständigen EU-Gremien diskutiert wird. Die zentrale Idee des Entwurfs liegt darin, KI-Systeme anhand einer Risikoklassifizierung in der gesamten EU branchenunabhängig zu regulieren. Mit dem Vorschlag sollen die oben genannten Anforderungen in bindendes Recht überführt werden. Somit beschränken sich die Anforderungen nicht nur auf den europäischen Versicherungsbereich, sondern gelten branchenübergreifend und können bei Verstößen empfindlich sanktioniert werden. Die geplante Verordnung ist aktuell im sogenannten Trilog-Verfahren auf dem Weg zur Verabschiedung. Nach einer Übergangsfrist von zwei Jahren nach dem Beschluss tritt sie in allen Mitgliedsstaaten der EU automatisch in Kraft.

 

Was genau bedeutet Erklärbarkeit?

Die Definition der Begriffe „Erklärbarkeit“ und „Interpretierbarkeit“ in Hinsicht auf KI-Modellvorhersagen gestaltet sich schwierig. Es existiert derzeit keine Definition für beide Begriffe. In der Literatur werden diese oft synonym verwendet, da sie im Allgemeinen dasselbe Konzept bezeichnen. Sowohl Modellerklärbarkeit als auch Modellinterpretierbarkeit zielen darauf ab, komplexe Modelle verständlicher und nachvollziehbarer zu gestalten, um das Vertrauen in ihre Vorhersagen zu stärken und mögliche Fehler zu identifizieren. Zwei Beschreibungen für Interpretierbarkeit sind beispielsweise:

 

„Interpretability is the degree to which a human can understand the cause of a decision. “[3]

 

oder

 

„Interpretability is the degree to which a human can consistently predict the model’s result. “ [4]

 

Das heißt, je höher die Interpretierbarkeit eines Modells, desto einfacher ist es für jemanden zu verstehen, warum bestimmte Modellentscheidungen oder -vorhersagen getroffen wurden. Ein Modell ist daher besser erklärbar als ein anderes, falls seine Entscheidungen für einen Menschen leichter nachvollziehbar sind als die Entscheidungen eines anderen Modells [5]. Somit wird auch klar, dass die Bewertung, wie erklärbar ein Modell ist, auch maßgeblich vom Anwendungsfall und vom jeweiligen Benutzer abhängig ist.

 

 

Warum ist Erklärbarkeit notwendig?

Wie bereits gesehen, variiert die Notwendigkeit der Modellerklärbarkeit je nach Anwendungsfall. Falls keine inakzeptablen Konsequenzen für den Anwender bestehen oder das Problem in realen Anwendungen ausgiebig erforscht und validiert wurde, ist eine explizite Erklärung der Modellvorhersagen nicht zwingend erforderlich. In solchen Fällen kann dem Systemverhalten vertraut werden, selbst wenn es nicht perfekt ist [6]. Für viele Anwendungsbereiche im Versicherungsumfeld trifft dies jedoch nicht zu. Falls hierbei sichergestellt werden kann, dass die Vorhersagen eines Modells erklärbar und für den Benutzer nachvollziehbar sind, können auch weitere Modellanforderungen wie etwa Nichtdiskriminierung und Fairness als auch technische Robustheit und Sicherheit gezielt überprüft werden [6]. Die Modellerklärbarkeit ist daher essenziell für den Einsatz einer ethischen und vertrauenswürdigen künstlichen Intelligenz insbesondere in der Versicherungsbranche.

 

Ausblick

In den folgenden Blogbeiträgen werde ich mich detaillierter dem Thema erklärbares bzw. interpretierbares maschinelles Lernen widmen. Dabei soll genauer auf die spezifische Taxonomie, die allgemeine Funktionsweise unterschiedlicher Verfahren und auf potenzielle Anwendungen näher eingegangen werden.

 

[1] https://chat.openai.com/

[2] EIOPA. Artificial Intelligence Governance Principles: Towards Ethical And Trustworthy Artificial Intelligence In The European Insurance Sector. A report from EIOPAs Consultative Expert Group on Digital Ethics in insurance. https://www.eiopa.europa.eu/system/files/2021-06/eiopa-ai-governance-principles-june-2021.pdf.

[3] Miller, T. (2017). Explanation in artificial intelligence: Insights from the social sciences. arXiv Preprint arXiv:1706.07269.

[4] Kim, Been, Rajiv Khanna, and Oluwasanmi O. Koyejo. (2016). Examples are not enough, learn to criticize! Criticism for interpretability. Advances in Neural Information Processing Systems. https://dl.acm.org/doi/pdf/10.5555/3157096.3157352.

[5] Molnar, C. (2022). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable (2nd ed.). christophm.github.io/interpretable-ml-book/.

[6] Doshi-Velez, Finale, and Been Kim. (2017). Towards a rigorous science of interpretable machine learning. http://arxiv.org/abs/1702.08608

Inhaltsverzeichnis

INTERESSE AN MEHR?

Abonnieren Sie unseren Blog und bleiben Sie gut informiert.

Sie können Ihre Zustimmung jederzeit widerrufen