Interpretierbarkeit von Blackbox-Modellen für das Kredit-Scoring

Freitag, 28. Juni 2019

Anwendung aktueller Methoden aus dem Maschinellen Lernen auf bankinterne Verfahren.

Prof. Dr. Gerhard Hellstern, Duale Hochschule Baden-Württemberg, Ravensburg. Davor langjähriger Leiter des Referats Bankgeschäftiche Prüfungen 1 der Deutschen Bundesbank, Hauptverwaltung in Baden-Württemberg. In seine Verantwortung fiel die Durchführung zahlreicher Säule 1 und Säule 2-Prüfungen bei LSI und SI im Rahmen des SSM

I. Einleitung

„Es liegt in der Verantwortung des beaufsichtigten Unternehmens, die Erklärbarkeit/Nachvollziehbarkeit von BDAI[1]-basierten Entscheidungen für sachkundige Dritte zu gewährleisten. Modelle lediglich als Blackbox zu betrachten, sieht die Aufsicht kritisch“[2]. Diese Aussage aus der 2018 veröffentlichten BaFin-Studie zum Thema Big Data und Künstliche Intelligenz beschreibt das Spannungsfeld bei der Anwendung Künstlicher Intelligenz im Finanzbereich treffend. Während auf der einen Seite immer bessere Algorithmen für Prognoseprobleme verfügbar sind, sind deren Anwendung auf der anderen Seite offenbar enge Grenzen gesetzt. Die Finanzaufsicht legt u. a. Wert darauf, dass Entscheidungsvorschläge durch Algorithmen nachvollziehbar und erklärbar bleiben. Vergleichbare Anforderungen an verwendete Algorithmen gibt es auch in anderen Branchen, z. B. im Gesundheitswesen. Es reicht nicht aus, dass ein Algorithmus „funktioniert“, was sich vergleichsweise einfach mittels entsprechender Performance-Maße ermitteln lässt.

Eine Möglichkeit, mit der Anforderung nach Interpretierbarkeit umzugehen, besteht darin, lediglich einfache, im Sinne von vollkommen transparente, Algorithmen zu verwenden. Dabei handelt es sich bspw. um die lineare oder logistische Regression bzw. einfache Entscheidungsbäume. Dieser Weg wird von vielen Banken und Finanzunternehmen bisher gegangen. Eine andere Möglichkeit besteht hingegen darin, zwar komplexe Algorithmen zu verwenden, diese aber mit speziellen Methoden „erklärbar“ zu machen. In den letzten Jahren hat das Forschungsgebiet „Interpretable Machine Learning“ einen enormen Aufschwung erlebt und viele Forschungsarbeiten sind zu dieser Thematik veröffentlicht oder auf Konferenzen[3] vorgestellt worden.

In diesem Beitrag werden verschiedene Verfahren vorgestellt, die dabei helfen können, Prognosen komplexer Algorithmen zu interpretieren. Dabei handelt es sich sowohl um globale als auch um lokale Interpretationsmethoden. Um die die Anwendbarkeit der Verfahren zu erläutern, werden diese anhand eines Kreditscoring-Beispiels demonstriert.

II. Formen der Interpretierbarkeit [...]
Beitragsnummer: 2567

Weiterlesen?


Dies ist ein kostenpflichtiger Beitrag aus unseren Fachzeitschriften.

Um alle Beiträge lesen zu können, müssen Sie sich bei meinFCH anmelden oder registrieren und danach eines unserer Abonnements abschließen!

Anmeldung/Registrierung

Wenn Sie angemeldet oder registriert sind, können Sie unter dem Menüpunkt "meinABO" Ihr

aktives Abonnement anschauen oder ein neues Abonnement abschließen.


Hinterlassen Sie einen Kommentar

Kommentare:

Um die Webseite so optimal und nutzerfreundlich wie möglich zu gestalten, nutzen wir Google Analytics und hierfür erforderliche Cookies. Weitere Infos finden Sie in unseren Datenschutzhinweisen.