Vertrauenswürdige künstliche Intelligenz
Seit einiger Zeit ist auch jenseits der Fachpresse vermehrt die Forderung zu lesen, dass künstliche Intelligenz (KI) vertrauenswürdig und ethisch sein soll. Konkret ist von „vertrauenswürdiger künstlicher Intelligenz“ (engl. trustworthy artificial intelligence) die Rede. So erregte zum Beispiel eine gemeinsame Erklärung zu den Prinzipien im Umgang mit künstlicher Intelligenz, auf die sich die Minister der G20-Staaten bei ihrem Treffen Anfang Juni in Japan verständigt haben, ein gewisses mediales Aufsehen.
Bereits im Mai 2019 hatten die Mitgliedsstaaten der OECD (sowie weitere Partnerländer) offiziell die ersten zwischenstaatlichen politischen Leitlinien für die künstliche Intelligenz verabschiedet und sich darauf geeinigt, internationale Normen einzuhalten, die sicherstellen sollen, dass KI-Systeme robust, sicher, fair und vertrauenswürdig sind. Obwohl die Leitlinien keinen rechtsverbindlichen Charakter haben, legen sie doch den Grundstein für einen ethischen Umgang mit KI-Systemen.
Aber wann ist ein KI-System vertrauenswürdig?
Zur Beantwortung dieser Frage beauftragte die EU-Kommission im vergangenen Jahr eine eigens dafür gebildete High-Level Expert Group on Artificial Intelligence (AI HLEG) mit der Erarbeitung ethischer Leitlinien für vertrauenswürdige künstliche Intelligenz. Die AI HLEG veröffentlichte am 08.04.2019 ein Dokument mit dem Namen „ETHICS GUIDELINES FOR TRUSTWORTHY AI“*. Dieses Dokument ist keine Rahmenrichtlinie oder Grundverordnung der EU und damit ebenfalls nicht rechtsverbindlich. Es liefert jedoch Prinzipien und Anforderungen an KI-Systeme und bildet die Grundlage für die oben erwähnte Vereinbarung der OECD Staaten.
Ausgangsbasis und Zielsetzung vertrauenswürdiger künstlicher Intelligenz
Bei der Definition von vertrauenswürdiger KI verfolgt die AI HLEG einen holistischen Ansatz: nicht nur ein einzelnes KI-System muss vertrauenswürdig sein, sondern KI an sich. Vertrauenswürdig sind dabei nicht nur das KI-System, sondern auch alle beteiligten Akteure. Vertrauenswürdige KI soll vor allem die gesellschaftliche Akzeptanz von KI generell fördern. Im Ringen mit den „Weltmarktführern“ im KI-Umfeld, den USA und China verfolgt die Europäische Union zudem das Ziel, mit vertrauenswürdiger KI ein weltweites Alleinstellungsmerkmal in Europa zu etablieren. Die Ausgangsbasis der weiteren Betrachtungen bilden dabei die Grundrechte eines jeden einzelnen, wie sie in der Charta der Grundrechte der Europäischen Union (EU-Charta) verankert sind.
Drei zentrale Forderungen
Die AI HLEG definiert drei zentrale Anforderungen: vertrauenswürdige KI muss rechtmäßig, ethisch und robust sein. Gesetze liefern den Rahmen für Aktivitäten und definieren Grenzen/Verbote. Gesetzeskonform zu sein (also nichts Verbotenes zu tun) reicht jedoch nicht aus. KI soll auch ethisch sein und die Übereinstimmung mit ethischen Normen sicherstellen. Auch wenn Rechtstreue und ethische Normen gewährleistet sind, müssen Einzelpersonen und die Gesellschaft auch darauf vertrauen können, dass KI-Systeme robust sind, also keinen unbeabsichtigten Schaden anrichten. Die Forderungen nach Rechtmäßigkeit und Robustheit sind damit soweit erst einmal geklärt. Wann eine KI ethisch ist, bedarf jedoch einer genaueren Betrachtung.
Vier ethische Grundprinzipien
Die Leitlinien fokussieren sich dazu im Weiteren auf die Definition ethischer Grundprinzipien:
Achtung der menschlichen Autonomie: Menschen, die mit KI-Systemen interagieren, müssen in der Lage sein, ihre volle und effektive Selbstbestimmung über sich selbst zu behalten und am demokratischen Prozess teilhaben zu können.
Vermeidung von Schäden: KI-Systeme sollten weder Schaden verursachen noch verschlimmern oder anderweitig den Menschen beeinträchtigen. Die Vermeidung von Schäden beinhaltet auch die Berücksichtigung der natürlichen Umwelt und aller Lebewesen.
Fairness: Sicherstellung einer gleichmäßigen und gerechten Verteilung von Nutzen und Kosten sowie die Vermeidung von Benachteiligungen und Diskriminierung.
Erklärbarkeit: Prozesse müssen transparent sein, die Fähigkeiten und der Zweck von KI-Systemen müssen offen kommuniziert werden und Entscheidungen den Betroffenen erklärbar sein.
Anforderungen an KI-Systeme
Aus den vier Prinzipen werden sodann sieben Anforderungen an KI-Systeme abgeleitet, die ich hier aufliste und sehr kurz zu interpretieren versuche.
Menschliches Handeln und Aufsicht: KI-Systeme sollten die menschliche Autonomie und Entscheidungsfindung unterstützen, wie es der Grundsatz der Achtung der menschlichen Autonomie vorschreibt. Dies erfordert, dass KI-Systeme als Ermöglicher für eine demokratische, florierende und gerechte Gesellschaft wirken. Demnach dürfen Menschen nicht durch KI-Systeme unterdrückt oder bedroht werden, wie es zum Beispiel bei KI-gestützten autonomen Waffensystemen der Fall ist.
Technische Robustheit und Sicherheit: KI-Systeme müssen zuverlässig, sicher und widerstandsfähig gegen Angriffe sein.
Datenschutz und Datenverwaltung: Sicherstellung der Wahrung der Privatsphäre und des Rechts auf informationelle Selbstbestimmung.
Transparenz: Ergebnisse und Entscheidungen von KI-Systemen müssen erklärbar, verlässlich und reproduzierbar sein. Dies betrifft zum Beispiel Scoringsysteme bei der Kreditvergabe. Im Falle einer Ablehnung muss dem Kunden erklärbar sein, auf welchen Merkmalen und Kriterien die Entscheidung basiert.
Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme müssen unlautere Verzerrungen sowie jede Art von Diskriminierung vermeiden. Als Beispiel sind hier etwa Wahlmanipulationen durch Chatbots zu nennen.
Wohlergehen von Umwelt und Gesellschaft: Ergebnisse und Entscheidungen von KI-Systemen leisten einen Beitrag zur Nachhaltigkeit und Umweltfreundlichkeit, vermeiden negative soziale Auswirkungen und fördern Demokratie und eine freie Gesellschaft. Ein Social Scoring, bei dem automatisiert das Sozialverhalten eines Einzelnen erfasst, bewertet und sanktioniert wird, wie es etwa in China aktuell erprobt wird, ist beispielsweise mit dieser Forderung unvereinbar.
Verantwortlichkeit: Für den Einsatz, die Ergebnisse sowie die Entscheidungen von KI-Systemen trägt stets ein Mensch die Verantwortung. Diese ist klar und transparent definiert.
So weit, so gut: Aber was bedeutet das nun für die Anwendung Vertrauenswürdige künstliche Intelligenz im Versicherungsumfeld? Mit dieser Frage werde ich mich in meinem nachfolgenden Beitrag beschäftigen.
*) ETHICS GUIDELINES FOR TRUSTWORTHY AI, High-Level Expert Group on Artificial Intelligence (HLEG), European Commission, Brüssel, 08.04.2019