
Dr. Patrick Hedfeld, Leiter Digital Service der DekaBank, Dozent der FOM in Frankfurt am Main
I. Einführung
Kann man mit der Hilfe von Sprachmodellen neue Bedrohungen für die Finanzwelt entwickeln? Diese Frage ist von großer Bedeutung, insbesondere in einer Zeit, in der künstliche Intelligenz und maschinelles Lernen immer weiter fortschreiten. Sprachmodelle wie GPT-3 und seine Nachfolger haben beeindruckende Fähigkeiten gezeigt, Texte zu generieren, die von menschlichen Autoren kaum zu unterscheiden sind.
In der Finanzwelt eröffnen sich durch den Einsatz solcher fortschrittlichen Sprachmodelle völlig neue Möglichkeiten. Bspw. könnten solche Modelle für gezielte Manipulationen genutzt werden, indem sie falsche Informationen in Echtzeit verbreiten oder Fake News erstellen, die gezielt auf bestimmte Märkte abzielen und dadurch Kursbewegungen auslösen. Gleichzeitig besteht die Gefahr, dass Kriminelle KI-gestützte Sprachmodelle für Phishing-Attacken, betrügerische Beratung oder gefälschte Kommunikation einsetzen, um ahnungslose Investoren oder Bankangestellte zu täuschen.
Darüber hinaus könnten Sprachmodelle dabei helfen, komplexe Finanzprodukte zu entwickeln, die für Laien und selbst für erfahrene Anleger schwer durchschaubar sind, was wiederum das Risiko erhöht, dass diese Technologien zu unethischen Zwecken missbraucht werden. Auch das Erstellen von Texten, die regulatorische Prüfungen umgehen oder verschleiern, könnte in der Zukunft ein Problem darstellen. Die Frage, ob Sprachmodelle gezielt genutzt werden könnten, um neue Bedrohungen in der Finanzwelt zu etablieren, ist daher nicht nur hypothetisch, sondern hochaktuell. Sie fordert Finanzinstitute und Regulierungsbehörden gleichermaßen heraus, neue Sicherheitsvorkehrungen zu entwickeln und die Einsatzmöglichkeiten dieser Technologien streng zu überwachen. [...]
Beitragsnummer: 22802