Machine Learning unterstützt Banken bei der Automatisierung von Compliance-Prozessen. Maschinell getroffene Entscheidungen dürfen aber keine Black Box sein.
Thomas Ohlemacher, Product Manager, ACTICO GmbH

So liefert Maschinelles Lernen nachvollziehbare Entscheidungen
Maschinelles Lernen ist die Zukunft in Compliance. Banken und Finanzdienstleister arbeiten daran, Compliance-Prozesse immer mehr zu optimieren, um die Effizienz zu steigern. Machine Learning entscheidet automatisiert, welche Personen oder Zahlungen auffällig sind und damit ein Compliance-Risiko bedeuten. Wichtig dabei: diese Entscheidungen dürfen nicht in einer Black Box getroffen werden. Sie müssen nachvollziehbar und erklärbar sein.
BERATUNGSTIPP
Compliance-Coaching.
SEMINARTIPPS
MaRisk-Compliance KOMPAKT, 22.04.2020, Frankfurt/M.
Prüfung MaRisk-Compliance, 23.04.2020, Frankfurt/M.

BUCHTIPP
Daumann/Leicht (Hrsg.), Arbeitsbuch Regulatorische Compliance, 2. Aufl. 2018.
Welche 5 Gründe sprechen für nachvollziehbare Compliance-Entscheidungen?
Die BaFin akzeptiert keine Black-Box-Hinweise und fordert nachvollziehbare, erklärbare Entscheidungen. Nachvollziehbarkeit hilft dem Compliance-Officer zu erkennen, ob es Anpassungsbedarf im Machine-Learning-Modell gibt, z. B. wenn die Ergebnisse nicht plausibel erscheinen. Nachvollziehbarkeit schafft mehr Vertrauen innerhalb der Bank und erlaubt es, die Produktivität durch die Reduzierung von False Positives zu steigern.

PRAXISTIPPS
- Machine Learning funktioniert nur in Zusammenarbeit mit Compliance-Spezialisten. Nur sie sind in der Lage, die Daten gemäß den eigenen Zielen zu beurteilen.
- Die BaFin fordert in ihrer Studie „Big Data trifft Künstliche Intelligenz“, dass Entscheidungen für sachkundige Dritte erklärbar sein müssen.
- Erklärbare Machine-Learning-Entscheidungen schaffen Vertrauen innerhalb des Unternehmens
- Nachvollziehbare Machine-Learning-Modelle sind die Basis für kontinuierliche Verbesserungen des Compliance-Prozesses
Checkliste mit 5 Gründen herunterladen.
Beitragsnummer: 3710