FRANKFURT SCHOOL

BLOG

Alles unter Kontrolle? KI und maschinelles Lernen in der Finanzbranche
Weiterbildung / 15. Oktober 2024
  • Teilen

  • 762

  • 0

  • Drucken
Dozent Financial Planner-Tage (fs.de/fpt) ; Executive Circle Asset & Wealth Management
Prof. Dr. Jan Neuhöfer ist Professor für Virtuelle Systeme und Computergrafik an der HAW Hamburg. Seit über 20 Jahren arbeitet er in den Bereichen Virtual Reality, Augmented Reality und Künstliche Intelligenz. Dabei hat Prof. Neuhöfer sowohl in internationalen Unternehmen wie Accenture, Siemens und Dassault Systèmes als auch in Forschung und Wissenschaft wertvolle Erfahrungen gesammelt und ein großes Netzwerk aufgebaut.

Autorenprofil

Mehr Blog Posts
IT-Governance im Fokus: DORA - Schlüssel zu digitaler Sicherheit im Finanzsektor
Kollektive Künstliche Intelligenz: Federated-Learning in der modernen Prüfung
Totgesagte leben länger! Bekommen PayPal und Co. mit "Wero" Konkurrenz aus Europa?

Künstliche Intelligenz bestimmt zunehmend unser aller Alltag und revolutioniert auch die Banken- und Finanzbranche. Ob Kundenservice, Vermögensverwaltung oder Risikomanagement – maschinelles Lernen verändert die Art und Weise, wie Banken ihre Dienstleistungen anbieten und Geschäfte führen. Von Chatbots über Robo-Advisors bis hin zu automatisiertem Handel sind die Anwendungsbereiche vielfältig und bieten enormes Potenzial, die Kundenerfahrung zu verbessern und Prozesse zu optimieren. Gleichzeitig werfen diese Entwicklungen aber auch Fragen zu Datenschutz und ethischer Nutzung auf.

Zur sachlichen Beurteilung aktueller Entwicklungen mag es helfen, den Bogen etwas weiter zu spannen. Beginnen wir also mit einer kurzen Einführung in die derzeit häufig verwendete Unterscheidung zwischen „schwacher KI“ und „starker KI“ mit Beispielen aus der Finanzwelt, gefolgt von einer Betrachtung kommender, regulatorischer Rahmenbedingungen und einer allgemeinen Handlungsempfehlung.

Schwache KI – längst Standard im Finanzwesen

Grundsätzlich ist der Einsatz „schwacher KI“ zur Unterstützung des Menschen schon längst State of the Art, auch im Finanzwesen. Dennoch kann schon von ihr eine Gefahr ausgehen. Dann nämlich, wenn man sich allzu sehr oder gar blind auf sie verlässt.

Als „Schwache KI“ werden all jene Systeme bezeichnet, die konkrete, klar definierte Aufgaben bewältigen können und hierzu auf eine festgelegte Methodik zurückgreifen. Ihr Ziel ist vor allem, den Menschen in seinem (Arbeits-)Alltag zu unterstützen. Dies kann sowohl die Übernahme immer wiederkehrende Tätigkeiten sein, aber z. B. auch die Unterbreitung von Vorschlägen bei der Erstellung von Texten und Verträgen.

Ein prominentes Beispiel für „schwache KI“ in der Bankenwelt sind sogenannte Robo-Advisors zur kostengünstigen, personalisierten Anlagenberatung. Sie analysieren Marktdaten und Kundenprofile, um maßgeschneiderte Empfehlungen zu geben, die sonst nur wohlhabenden Kunden mit Zugang zu klassischen Vermögensberatern vorbehalten sind.

Ein weiteres Beispiel für den Einsatz von KI ist die Betrugserkennung. KI-Systeme können eingesetzt werden, um ungewöhnliche Muster in Transaktionsdaten zu erkennen, die auf betrügerische Aktivitäten hinweisen. Durch kontinuierliches Hinzulernen können diese Systeme stetig verbessert werden, um immer subtilere Betrugsmethoden zu erkennen und zu verhindern.

Starke KI – die Zukunft ist noch ungeschrieben

Einen Schritt weiter als „schwache KI“ geht „starke KI“. Sie zielt darauf ab, mit dem Menschen auf Augenhöhe zu kooperieren oder ihn gegebenenfalls auch komplett zu ersetzen und zu übertreffen. Ihr wesentliches Merkmal ist die Fähigkeit zum selbständigen Lernen, strategischen Planen, vorausschauenden Handeln und kritischen Reflektieren. Dies kann jedoch – wenn überhaupt – bisher nur ansatzweise erreicht werden.

Ein Beispiel für den Beginn „starker KI“ im Finanzsektor ist der automatisierte bzw. algorithmische Handel mit Wertpapieren. Grundsätzlich ist algorithmischer Handel nicht neu, und die Bedingungen für seinen Einsatz sind im Wertpapierhandelsgesetz klar geregelt. Neu ist dabei jedoch der Einsatz maschinellen Lernens, um Markttrends zu analysieren und Handelsentscheidungen zu treffen. Dabei können eine Vielzahl an Datenquellen in Millisekunden verarbeitet werden, darunter historische Kursdaten und Nachrichtenfeeds. So kann ein geradezu übermenschlicher Wettbewerbsvorteil entstehen, der sich jedoch mit steigender Verbreitung dieser Technologie wieder relativiert.

Von der Erschaffung einer generellen „starken KI“, die dem menschlichen Gehirn und seinen mannigfaltigen Fähigkeiten tatsächlich nahekommt, ist die Wissenschaft übrigens noch weit entfernt. Dies liegt vor allem daran, dass die Funktionsweise des biologischen Vorbilds noch längst nicht umfassend verstanden ist.

Nebenwirkungen starker KI und die Verordnung der EU

Grundsätzlich ist zu bemerken, dass es durch maschinelles Lernen unter Einsatz von vergleichsweise wenig eigener Kompetenz möglich ist, leistungsfähige Systeme zu entwickeln. Diese sind für den Menschen jedoch aufgrund ihrer Komplexität allenfalls eingeschränkt durchschaubar. Insofern ist bei ihrer Erzeugung und ihrem Einsatz ein hohes Maß an Sachverstand, Erfahrung und vor allem Verantwortungsbewusstsein erforderlich.

Die Europäische Union hat erkannt, dass es notwendig ist, klare Regeln für den Einsatz von KI zu etablieren, insbesondere in sensiblen Bereichen wie der Finanzwirtschaft. Aus diesem Grund wurde im Jahr 2019 mit der Ausarbeitung einer risikobasierten Verordnung über künstliche Intelligenz begonnen, die am 21. Mai 2024 von den 27 EU-Mitgliedstaaten in ihrer endgültigen Form verabschiedet wurde und am 1. August 2024 in Kraft trat. Diese unterscheidet zwischen KI-Systemen mit

  1. minimalem Risiko wie Gegnern in Computerspielen,
  2. begrenztem Risiko wie beratenden Chatbots,
  3. hohem Risiko wie KI-gestützter Kreditwürdigkeitsprüfung und
  4. unannehmbarem Risiko wie KI-basierter Auswertung menschlichen Sozialverhaltens (sogenanntes „Social Scoring“).

Die Einhaltung dieser Vorschriften soll von einem Europäischen Ausschuss für künstliche Intelligenz überwacht werden, der in Zusammenarbeit mit nationalen Behörden agiert. Während diese Regulierungen die Sicherheit der Verbraucher erhöhen sollen, gibt es allerdings auch Bedenken, dass sie die Innovationskraft europäischer Unternehmen beeinträchtigen könnten.

Nicht zu vernachlässigen ist auch der für maschinelles Lernen hohe und weiter steigende Bedarf an Energie und die damit verbundenen Konsequenzen für das globale Klima. Für Banken und Unternehmen, die auf nachhaltige Geschäftspraktiken setzen, stellt dies eine zusätzliche Herausforderung dar.

Was ist zu tun?

Aufgrund ihrer Leistungsfähigkeit und ihres breiten Einsatzspektrums wird der Einsatz von KI in vielen Bereichen des Arbeitslebens bald zum Standard werden, so dass ihre Beherrschung und effektiver Einsatz von ausschlaggebender Bedeutung für die Konkurrenz- und Zukunftsfähigkeit jedes Einzelnen sein wird.

Für Vorstände und Führungskräfte ist es daher unerlässlich, sich frühzeitig mit den Möglichkeiten und Herausforderungen heutiger KI-Systeme auseinanderzusetzen. Eine proaktive Herangehensweise, die sowohl die Potenziale als auch die Risiken berücksichtigt, wird entscheidend sein, um in einer zunehmend digitalen Welt wettbewerbsfähig zu bleiben.

—————————————————————————————-

Dieser Text ist eine überarbeitete Fassung des Beitrags Keine Angst vor KI. Was man heute wissen sollte, damit es morgen kein böses Erwachen gibt des Autors im B2B Branchebuch vom 24. August 2024

0 Kommentare

Senden