msg Logo

Künstliche Intelligenz

Der Artificial Intelligence Act – Wird auch die Versicherungsbranche davon betroffen sein?

Von Stefan Nörtemann / 15. Januar 2023

Vertrauenswürdige Künstliche Intelligenz

Bereits seit einigen Jahren befassen sich diverse europäische Gremien mit ethischen Fragestellungen rund um den Einsatz Künstlicher Intelligenz (KI) in vielen Lebensbereichen. Dabei verfolgen sie in erster Linie das Ziel einer vertrauenswürdigen Künstlichen Intelligenz, die ethisch, robust und gesetzeskonform ist. Dies soll nicht nur für jedes einzelne KI-System erreicht werden, sondern für KI als solches. Damit werden auch Anforderungen an die  beteiligten Akteure gestellt – als Anwender, Anbieter und Entwickler von KI-Systemen.

Stand des Verfahrens zu Beginn des Jahre 2023

Mit dem gemeinsamem Entwurf einer Grundverordnung* der EU-Kommission und des Europäischen Parlaments vom 21.04.2021 wurde der Weg hin zu einer EU-weit einheitlichen Regulierung der Künstlichen Intelligenz beschritten. Seitdem gab es Konsultationen und umfängliche Diskussionen zwischen den beteiligten Gremien wie auch Branchenvertretern und Behörden. Das ursprüngliche Ziel einer Verabschiedung des sogenannten Artificial Intelligence Acts im Jahr 2022 wurde darüber verfehlt. Immerhin einigte sich der Europäische Rat am 06.12.2022 auf eine gemeinsame Linie, die im General approach** vom 25.11.2022 niedergeschrieben ist. Dies ist noch keine Entscheidung zur Verordnung, sondern beschreibt die Position, mit der der Europäische Rat in den Trilog startet, der im Jahr 2023 zu einer Verabschiedung führen soll.

Systematik der Regelungen

Wie in meinen Beiträgen vom 03.02.2022 und 22.02.2022 dargelegt, verfolgt der Entwurf des Artificial Intelligence Acts das Prinzip einer risikobasierten Regulierung. Dazu soll jede KI-Anwendung einer von vier Kategorien zugeordnet werden: Verbotene Praktiken, Hochrisikosysteme, Systeme mit besonderen Transparenzpflichten, alle weiteren KI-Systeme (die in keine der anderen Kategorien fallen). Eine umfassende Regulierung ist dabei (nur) für Hochrisikosysteme vorgesehen.

Was bedeutet dies für die Versicherungsbranche?

Spätestens seit der Veröffentlichung des ursprünglichen Entwurfs wird die Frage diskutiert, ob und ggf. welche KI-Anwendungen im Versicherungsumfeld als Hochrisikosysteme eingestuft werden sollen und damit einer umfänglichen Regulierung unterliegen. Im ursprünglichen Entwurf* war dies gar nicht vorgesehen. In einem frühen Kompromisstext des Europäischen Rates (Compromise text vom 29.11.2021)*** hieß es “… KI-Systeme, die für die Festsetzung von Versicherungsprämien, für Underwritings und die Bewertung von Schadensfällen eingesetzt werden sollen.“ Dies wurde nun im General approach** geändert in “KI-Systeme, die zur Risikobewertung und Preisgestaltung in Bezug auf natürliche Personen bei Lebens- und Krankenversicherungen eingesetzt werden sollen …” (General approach, Annex III, 5. (d))

Anforderungen an Hochrisikosysteme

Vereinfacht gesagt beschränkt sich damit der Kreis der Hochrisikosysteme in der Versicherung auf KI-Anwendungen für die Risikobewertung und Tarifierung in der Lebens- und Krankenversicherung. Andere Sparten werden hier nicht mehr erwähnt. Und damit ergeben sich umfängliche Anforderungen an KI-Anwendungen zur Risikobewertung und Tarifierung in der Lebens- und Krankenversicherung (General approach, Kapitel 2, Artikel 8 – 15).

Unter anderem ein spezifisches Risikomanagement, eine Daten-Governance, umfängliche technische Dokumentationen und Aufzeichnungspflichten, Transparenzvorschriften, Menschliche Aufsicht sowie besondere Anforderungen an Genauigkeit, Robustheit und Cybersicherheit.

Herausforderungen beim Einsatz von Hochrisikosystemen

Neben den eher „bürokratischen“ und organisatorischen Vorschriften, die im Bereich „Fleißarbeit“ zu verorten sind, finden sich hier auch fachlich anspruchsvolle Anforderungen, die bereits in der Konzeption der KI-Systeme berücksichtigt werden müssen.

Hier sind unter anderem die Transparenzanforderungen (Artikel 13) an KI-Systeme in Kombination mit der Menschlichen Aufsicht (Artikel 14) zu nennen, die gewährleisten, dass die Nutzer die Ergebnisse des KI-Systems angemessen interpretieren und den Betrieb wirksam beaufsichtigen können. Dies stellt insbesondere bei Black-Box-Systemen, wie sie beispielsweise beim Deep Learning vorkommen, eine grundsätzliche Hürde dar (Stichwort: Erklärbarkeit / Explainabilty).

Zwischenfazit

Auch mit der Einigung des Europäischen Rates auf eine gemeinsame Linie im General approach** ist noch nichts endgültig entschieden. Dennoch wird hier die Richtung bereits deutlich und es ist zu erwarten, dass zumindest ausgewählte KI-Anwendungen der Lebens- und Krankenversicherung als Hochrisikosysteme einzustufen sind. Wir werden Sie auf dem Laufenden halten.

*) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS

**) Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts – General approach

***) Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts – Presidency compromise text

Inhaltsverzeichnis

INTERESSE AN MEHR?

Abonnieren Sie unseren Blog und bleiben Sie gut informiert.

Sie können Ihre Zustimmung jederzeit widerrufen

AI Act