Interpretierbarkeit und XAI bei ML-Modellen in Banken
Finanzdienstleister und Banken setzen bei der Bewertung von Kreditrisiken und bei der Erklärung von Finanzwerten in der GuV, bei den Stillen Lasten/Reserven, bei Barwerten, etc. auf Machine Learning Ansätze und beschleunigen damit aufwändige Prozesse.
In der Regel ist die Anwendung eines intransparenten ML-Modells zur Schätzung eines Finanzwerts nicht ausreichend, wenn man verstehen möchte, wie sich die Berechnung zusammensetzt. Insbesondere ist es vielleicht wichtig zu analysieren, welche Effekte eine besondere Rolle spielen, oder was die Gründe für bestimmte Auffälligkeiten im erzeugten Output sind.
An dieser Stelle ist vor allem wichtig, welche Merkmale (Features) der Daten einen bestimmbaren quantitativen Einfluss auf diese Bewegung haben, um daraus ein besseres fachliches Verständnis für eine Finanzgröße ziehen zu können.
Für das mehrfach von mir erwähnte ML-Modell Random Forest existiert zu diesen Zweck in Python die Bibliothek ‘treeinterpreter’, mit der solche Einflüsse auf Trade-Ebene bestimmt werden können. So kann genau angegeben werden, welche Features einen großen und welche Features einen eher geringen Einfluss auf das Ergebnis haben.
Andere Modelle können sich sogenannter XAI (Explainable AI)-Techniken bedienen. Mehr dazu in dem folgenden Artikel: