msg Logo

Künstliche Intelligenz

Vertrauenswürdige künstliche Intelligenz im Versicherungsumfeld

Von Stefan Nörtemann / 26. August 2019

Mein letzter Beitrag behandelt sehr allgemein die Frage, was vertrauenswürdige künstliche Intelligenz ist bzw. sein könnte und wie man diese erreicht. Konkret habe ich versucht, die zentralen Ergebnisse der Leitlinien „ETHICS GUIDELINES FOR TRUSTWORTHY AI“ [1] der High-Level Expert Group on Artificial Intelligence (AI HLEG) der Europäischen Kommission kurz zusammenzufassen.

Vertrauenswürdige KI muss rechtmäßig, robust und ethisch sein, wobei letzteres eine genauere Definition verlangt. Hierfür wurden vier ethische Grundprinzipien formuliert (Achtung der menschlichen Autonomie, Vermeidung von Schäden, Fairness und Erklärbarkeit) und daraus sieben Anforderungen abgeleitet. All das ist nicht rechtsverbindlich, dient jedoch als Grundlage für weitergehende Diskussionen hin zu einer (dann verbindlichen) Regulierung.

Aber was bedeutet vertrauenswürdige künstliche Intelligenz im Versicherungsumfeld?

In Versicherungen ist der Einsatz von Verfahren des Data Minings oder des maschinellen Lernens (im weitesten Sinne also der künstlichen Intelligenz) nicht neu und wird sich künftig sicher noch mehr verbreiten. Vor diesem Hintergrund müssen sich alle Beteiligten mit der Frage auseinandersetzen, wie sie die Einhaltung ethischer Grundprinzipen sowie die Erfüllung der Anforderungen sicherstellen können. Das gilt natürlich auch für uns, die wir Software für Versicherungen herstellen.

Die Stellungnahme des GDV

Der Gesamtverband der deutschen Versicherungswirtschaft (GDV) hat dieses Thema bereits aufgegriffen und im Januar 2019 eine Stellungnahme [2] dazu veröffentlicht. Die AI HLEG hatte nämlich bereits im vergangenen Jahr einen Entwurf [3] ihrer Leitlinien veröffentlicht, der von den betroffenen Interessensgruppen kommentiert werden konnte/sollte.

Bestehende Regulierungen für die Versicherungswirtschaft

Die zentrale These der Stellungnahme ist die Aussage, dass die „Versicherungswirtschaft als Teil des Finanzdienstleistungssektors […] stark reguliert [ist]“ (zitiert aus [2]) und dass „alle hochwirksamen ethischen Grundsätze bereits durch den bestehenden Regulierungsrahmen für die Versicherungswirtschaft abgedeckt sind.“ In der Stellungnahme wird diese Aussage mit Verweis auf die einschlägigen gesetzlichen und aufsichtsrechtlichen Regelungen belegt. Insbesondere wird Bezug genommen auf die Solvency II-Regularien und die Datenschutzgrundverordnung, ergänzt um die jeweiligen nationalen Gesetzgebungen. Im Weiteren werden die einzelnen Anforderungen an eine vertrauenswürdige KI jeweils mit Blick auf die bestehenden Regularien analysiert und die Ausgangsthese damit unterstützt. Zudem werden in der Stellungnahme als Regulierungsgrundsätze „Technologieneutralität und der Grundsatz der Verhältnismäßigkeit“ gefordert.

Zusammengefasst und vereinfacht ausgedrückt sieht der GDV speziell für die Versicherungswirtschaft und beschränkt auf das Thema KI keinen dringenden weiteren Regelungsbedarf.

Also ist das Thema damit erledigt?

Nicht ganz! Natürlich ist zum Beispiel die Anforderung Datenschutz und Datenverwaltung hinlänglich durch die Datenschutzgrundverordnung abgedeckt. Und zwar völlig unabhängig davon, ob bei der Datenverarbeitung künstliche oder natürliche Intelligenz beteiligt ist. Auch die Anforderungen zur Transparenz und Nichtdiskriminierung sind heute standardmäßig und technologieunabhängig in der Versicherungsbranche weitgehend etabliert.

Zu den anderen Anforderungen, wie etwa Wohlergehen von Umwelt und Gesellschaft oder menschliches Handeln, scheinen mir jedoch weitergehende Analysen sowie ein tieferes Nachdenken angezeigt. Beispielsweise ist die Anforderung an eine ethische KI, Nachhaltigkeit und Umweltfreundlichkeit zu fördern, durchaus komplex. Hier ist zum Beispiel von Fall zu Fall die Frage zu beantworten, ob der Nutzen des Einsatzes einer KI den Ressourcenverbrauch (zum Beispiel Energieverbrauch der Server) rechtfertigt. Etwa bei der Blockchain-Technologie ist dies ein relevanter, aber bislang wenig diskutierter Aspekt.

Die Deutsche Aktuarvereinigung (DAV), genauer der Ausschuss Actuarial Data Science hat dazu im Frühjahr eine Arbeitsgruppe gegründet, die das Thema vertrauenswürdige KI aus Sicht der Aktuarinnen und Aktuare analysieren soll. Die Ergebnisse werden voraussichtlich im Herbst vorliegen – eventuell werde ich dann einen dritten Beitrag zu diesem Thema verfassen.

Fazit

Auch wenn bislang nicht rechtsverbindlich, betreffen uns in der Versicherungsbranche die ethischen Grundprinzipen und die Anforderungen an eine vertrauenswürdige künstliche Intelligenz ebenso wie alle anderen Branchen. Demgegenüber sind speziell für Versicherungen einige oder die meisten (?) Anforderungen bereits durch bestehende Regulierungen abgedeckt. Über das mögliche Delta wird noch zu reden sein.

[1] ETHICS GUIDELINES FOR TRUSTWORTHY AI, High-Level Expert Group on Artificial Intelligence (HLEG), European Commission, Brüssel, 08.04.2019

[2] Position Paper of the German Insurance Association on the „Draft Ethics Guidelines For Trustworthy AI” and their applicability to the insurance premiums use case, Gesamtverband der Deutschen Versicherungswirtschaft e. V., Berlin, 28.01.2019

[3] Draft ETHICS GUIDELINES FOR TRUSTWORTHY AI, High-Level Expert Group on Artificial Intelligence (HLEG), European Commission, Brüssel, 18.12.2018

 

Inhaltsverzeichnis

INTERESSE AN MEHR?

Abonnieren Sie unseren Blog und bleiben Sie gut informiert.

Sie können Ihre Zustimmung jederzeit widerrufen