FRANKFURT SCHOOL

BLOG

AI als Stütze für die operative Compliance: Erwartung vs. Realität
Weiterbildung / 2. Juni 2023
  • Teilen

  • 3991

  • 0

  • Drucken
Alumnus Certified Compliance Professional
Rachid Tahrioui ist ein leidenschaftlicher Kämpfer gegen Finanzkriminalität und arbeitet seit Jahren im Compliance-Bereich des Bankensektors. Angefangen in der Unternehmensberatung bis hin zu verschiedenen internen Positionen konnte er vor allem im Bereich AML-Compliance viel Erfahrung sammeln. Im Jahr 2019 absolvierte er den Lehrgang zum Certified Compliance Professional an der Frankfurt School und ist derzeit als Senior Manager bei der Hyundai Capital Europe Bank in Frankfurt tätig.

Autorenprofil

Mehr Blog Posts
Balancing work and study as a Master in Applied Data Science student
Digital Transformation and AI: A road map for industries and tech firms
Aufbruch in neue Dimensionen: Virtuelle Kollaboration in 3D Spaces

Artificial Intelligence (AI), Machine Learning (ML) und Robotic Process Automation (RPA) – Begriffe, die im aktuellen Umfeld des Finanzsektors allzu häufig verwendet werden, wenn es um Maßnahmen zur Prozessoptimierung, Kosten- und Zeitersparnis geht. Die Forderung nach den neuesten technologischen Entwicklungen bestimmt seit geraumer Zeit den Markt. Insbesondere im Bereich der Bekämpfung von Finanzkriminalität plädieren Fachexperten für den Einsatz o.g. Technologien. Doch welche Herausforderungen bringt der Einsatz von künstlicher Intelligenz mit sich? Wie steht die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zu diesem Thema und welche potenziellen Auswirkungen könnte dies am Ende des Tages für die operative Compliance zur Folge haben? Mit diesen Fragen gilt es, sich kritisch auseinanderzusetzen.

Data is Key

Vor der Implementierung von künstlicher Intelligenz in den Monitoring- und Screeningtools gilt es, entsprechende Grundlagen in der technologischen Infrastruktur des jeweiligen Hauses zu schaffen. Ein wesentlicher Bestandteil hierbei ist die Datenqualität. Sofern eine gewisse Qualität der Daten nicht vorhanden ist, kann der Einsatz von künstlicher Intelligenz nicht funktionieren.

In ihrer Studie zum Thema „Big Data trifft auf künstliche Intelligenz“ definiert die BaFin unter anderem die Qualität und Quantität vorhandener Daten als strategische Voraussetzung für den Einsatz von künstlicher Intelligenz. Als wesentliche Kriterien werden hierbei die Vollständigkeit, Wahrhaftigkeit, Konsistenz und Aktualität von Daten definiert. (1)

Ein Großteil der Finanzdienstleister beklagt jedoch einen Mangel an Daten für eine Implementierung von AI, dies bestätigte zuletzt eine Umfrage der Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers (PwC). (2) Daher gilt, gründlich zu prüfen, ob wirklich alle nötigen Kunden-, Transaktions- und Produkt-, und Partnerdaten im Bestandsführungssystem eingespielt sind, um beispielsweise eine robotergestützte Prozessautomatisierung einzuführen.

Hohe Komplexität für die breite Masse

Neben der Datenproblematik ist das begrenzte bzw. fehlende Wissen in der Branche ein weiterer „Showstopper“ bei dem Einsatz von künstlicher Intelligenz im operativen Compliance-Bereich. Laut oben erwähnter Umfrage von PwC gaben 64 % der Teilnehmer an, nicht über die notwendige Kompetenz zu verfügen, um die neuen Technologien implementieren zu können. Dies erschwert auch die Nachvollziehbarkeit von Entscheidungsprozessen im Rahmen der operativen Compliance, was sich nicht unerheblich auf interne oder externe Audits auswirken kann.

Aus der „BaFin-Brille“: Weder Pro noch Contra – oder doch Contra?

Grundsätzlich billigt die oberste Finanzaufsicht Deutschlands keine algorithmischen Entscheidungsprozesse. Noch vor drei Jahren äußerte sich die BaFin als technologieneutral. (3) In Bezug auf aufsichtsrechtliche Organisations- und Dokumentationspflichten gäbe es keine konkreten Vorgaben darüber, welche Art der Technologie einzusetzen sei.

Eins ist jedoch klar: die klare Verantwortung – und somit auch das Risiko der Haftung – verbleibt bei der Geschäftsleitung. (4) Dies tangiert auch die Funktion des Compliance-Beauftragten, welche neben der Geschäftsleitung ebenfalls einem persönlichen Haftungsrisiko ausgesetzt ist.

Mögliche Auswirkungen auf die operative Compliance und Regulatorik

Man betrachte beispielsweise das klassisch statistische Verfahren für das Transaktionsmonitoring, welches aktuell auf Basis von regelbasierten Erkennungsszenarien funktioniert. Mit dem Einsatz von Artificial Intelligence im Verdachtsmeldewesen käme es zu einer Reduktion von sogenannten ‚False Positives‘ – Treffer, die am Ende der Analyse zu einem Fehlalarm führen. Das ist eines der Kernargumente vom Einsatz künstlicher Intelligenz im Transaktionsmonitoring. (5)

Wichtig ist es, sich vorher zu überlegen, an welchen Punkten entlang des Verdachtsmeldeprozesses sich der Einsatz von oben genannten Technologien eignet. So kann Robotic Process Automation bei der Aggregation von Daten ein wesentlicher Treiber im Verdachtsmeldeprozess sein, welcher der vorgeschriebenen Unverzüglichkeit in der Fallbearbeitung unterstützend entgegenkommt. Die Investigationen im aktuellen Umfeld des Verdachtsmeldeprozesses sind noch von vielen Insel-Lösungen geprägt. Neben dem Monitoringsystem gilt es meist Informationen aus internen Datenquellen (Archivierungs- und CRM-Systeme) oder aus den gängigen externen Quellen (wie bspw. Google, WorldCheck oder Factiva) zusammenzutragen.

Der Einfluss auf die seit Jahren steigende Anzahl an abgegebenen Geldwäscheverdachtsmeldungen an die Financial Intelligence Unit (FIU) bleibt abzuwarten. (6) Jedoch liegt der Verdacht nahe, dass die Risikoaversion in der Kalibrierung beim Einsatz von künstlicher Intelligenz im Transaktionsmonitoring eher steigen wird. Dies wiederum könnte den ohnehin abzuarbeitenden Backlog an Verdachtsmeldungen bei der FIU noch größer werden lassen. (7)

Abgesehen von den Auswirkungen auf das operative Tagesgeschäft gilt es auch die Tragweite für regulatorische Anforderungen zu betrachten. So könnte mit dem Einsatz von Machine Learning auch die Rolle des Algorithmus-Beauftragten geschaffen werden, welche analog zu der des Datenschutz-Beauftragten anzusehen ist. (8) Oder werden gar neue Verwaltungsanweisungen in Form von „MaAlgo“ (Mindestanforderungen an Algorithmen) veröffentlicht?

Praxistipps

  • Der obige Beitrag soll nicht als Affront gegen den Einsatz von AI in die operative Compliance interpretiert werden. Vielmehr soll er die Herausforderungen des seit Jahren im Sektor als Trend bezeichneten Fortschritt durchleuchten und den Ist-Zustand widerspiegeln.
  • Bis sich alle Beteiligten – Aufsichtsbehörden und Verpflichtete – das nötige Fachwissen angeeignet haben und finanzielle Spielräume geschaffen werden, gilt es, an softwarebasierten Lösungen und Methoden festzuhalten.
  • Die regelbasierten Szenarien sollten so lange getestet und rekalibriert werden, bis die Balance zwischen Werthaltigkeit und angemessenem Risikoappetit gegeben ist.

 

(1) „Big Data trifft auf künstliche Intelligenz – Herausforderungen und Implikationen für Aufsicht und Regulierung von Finanzdienstleistungen“ (BaFin, 2018).

(2) „Künstliche Intelligenz im Finanzsektor“ (PwC, 2020).

(3) „Generelle Billigung von Algorithmen durch die Aufsicht? Nein, aber es gibt Ausnahmen“ (BaFin Publikation, 2020).

(4) „Big Data und künstliche Intelligenz – Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen“ (BaFin, 2021).

(5) „Mit künstlicher Intelligenz Geldwäsche erkennen – bevor sie geschieht“ (KPMG, 2022).

(6) „Jahresbericht 2021“ (Financial Intelligence Unit).

(7) „Wie Deutschland die Geldwäschebekämpfung verschleppt“ (ZEIT ONLINE, 2022).

(8) „Konsultation des Berichts Big Data trifft auf künstliche Intelligenz Ergebnisse und nächste Schritte“ (BaFin, 2019).

 

Dieser Text ist im Februar 2023 als Beitrag auf der Seite der FCH-Gruppe erschienen.

0 Kommentare

Senden