Maschinelles Lernen – warum funktioniert es (manchmal nicht)?
In dem Beitrag „KI in der Versicherungsbranche – Begriffe und Definitionen“ wurde bereits angedeutet, was es mit dem Maschinellen Lernen (ML) eigentlich auf sich hat. Das möchten wir hier ein wenig vertiefen und die im Titel gestellten Fragen diskutieren. Machine Learning bzw. Maschinelles Lernen ist ein Teilgebiet der Künstlichen Intelligenz. Unter dem allgemeinen Begriff subsummieren sich unterschiedliche Vorgehensweisen und darunter zahllose Lernverfahren. Eine erste grobe Einteilung unterscheidet zwischen überwachtem, unüberwachtem und bestärkendem Maschinellen Lernen. In diesem Beitrag möchten wir uns auf die erste Kategorie, das überwachte ML konzentrieren, und holen dazu kurz etwas aus.
Wie gelangen wir zu Erkenntnissen?
In Logik und Naturwissenschaft unterscheidet man zwei grundsätzliche Vorgehensweisen des logischen Schließens. Bei der sogenannten deduktiven Inferenz werden spezifische Aussagen aus allgemeinen Prinzipien, Regeln oder Axiomen abgeleitet. Dies ist ein übliches Vorgehen in der Mathematik und setzt voraus, dass Prinzipien, Regeln, Axiome existieren und bekannt sind. Demgegenüber steht die induktive Inferenz. Hier werden Zusammenhänge durch Beobachtungen gelernt und daraus allgemeine Gesetzmäßigkeiten abgeleitet. Dieses Vorgehen treffen wir in den Naturwissenschaften, wie zum Beispiel der Physik, an. Dabei ist zu beachten, dass induktive Aussagen falsifiziert, aber nicht verifiziert werden können.
Klassische Programmierung
In der klassischen Programmierung verfolgt man üblicherweise den deduktiven Ansatz. Dabei werden Input-Daten nach einem vorher festgelegten Schema (dem Algorithmus) verarbeitet und so ein Output berechnet. Der Programmierer muss dazu vorab den Algorithmus kennen oder entwerfen und ihn dann in die von ihm verwendete Programmiersprache übertragen.
Maschinelles Lernen
Demgegenüber kann man das überwachte Maschinelle Lernen als Versuch auffassen, den Prozess der induktiven Inferenz zu automatisieren. Im Gegensatz zur klassischen Programmierung ist beim überwachten Maschinellen Lernen vorab kein Algorithmus bekannt (und oft auch nicht danach). Basierend auf einem Lernverfahren wird stattdessen an Hand von Input-Daten ein Modell trainiert. Das trainierte Modell nutzt man dann, um gewisse Zielmerkmale für neue Daten vorherzusagen. Das Zielmerkmal kann ein nominales Merkmal sein, zum Beispiel der Kunde storniert seinen Vertrag oder der Kunde wählt eine Kapitalabfindung (Klassifizierungsproblem), oder ein numerisches Merkmal, zum Beispiel die Schadenhöhe (Regressionsproblem).
Training und Test
Zur Vorhersage der Zielmerkmale benötigt man eine gewisse Anzahl von Datensätzen mit strukturierten Daten verschiedener Merkmale (Features) sowie den Ausprägungen der Zielmerkmale. Die Datensätze teilt man (meist zufällig) in zwei Gruppen: Trainings- und Testdatensätze. Nun wird ein Lernverfahren, zum Beispiel ein künstliches neuronales Netz, mit den Trainingsdaten trainiert. Das neuronale Netz „lernt“ dabei den Zusammenhang zwischen den anderen Merkmalen und den Zielmerkmalen, zum Beispiel, dass und wie das Stornoverhalten von Alter, Vertragsdauer und Versicherungsprodukt abhängt. Zur Prüfung der Güte der Vorhersagen wendet man das trainierte Modell zunächst noch einmal auf die Trainingsdaten an und prüft, ob die Vorhersagen die bekannten Ausprägungen der Zielmerkmale treffen. Danach kommen die bislang nicht verwendeten Testdaten ins Spiel. Mit ihnen wird geprüft, ob das Lernverfahren hierfür gute Vorhersagen macht.
Validierung
Bei der Güteprüfung können folgende Fälle auftreten: Beim Underfitting sind die Vorhersagen schon für die Trainingsdaten unzureichend, und man kann keine guten Vorhersagen auf den Testdaten oder ganz neuen Daten erwarten. Von Overfitting spricht man, wenn die Vorhersagen auf den Trainingsdaten sehr gut und auf den Testdaten sehr schlecht sind. Im Idealfall sind die Vorhersagen für Trainings- und Testdaten gut, dann besteht die Hoffnung, dass auch für ganz neue Daten gute Vorhersagen zu erwarten sind.
Aber Achtung: Auch in diesem Fall ist es immer noch möglich, auf neuen Daten schlechte Vorhersagen zu treffen. In der Praxis geschieht dies meist dann, wenn die neuen Daten strukturell anders sind als die Trainingsdaten. Wenn wir beispielsweise für eine Stornoprognose ausschließlich Datensätze mit klassischen Versicherungsprodukten für Training und Test verwendet haben, so können wir nicht unbedingt gute Vorhersagen zum Beispiel für Fondsprodukte erwarten.
Zur Vermeidung solcher Effekte ist eine umfängliche Analyse der Daten hinsichtlich ihrer Qualität und Eignung notwendig. In der Praxis erfolgt die sogenannte explorative Datenanalyse vor dem Training mit den Daten. Hierfür ist in der Regel tiefgehendes Kontextwissen notwendig, ebenso wie für die Beurteilung der Ergebnisse.
Fazit
Korrekt und sachkundig angewendet bietet Maschinelles Lernen zahlreiche Möglichkeiten zur Lösung bekannter und auch neuer Problemstellungen und wird in der Praxis, auch in der Versicherungsbranche, erfolgreich eingesetzt.