Geld, Märkte und maschinelles Lernen: Die Risiken gegnerischer KI aufklären

Blog

HeimHeim / Blog / Geld, Märkte und maschinelles Lernen: Die Risiken gegnerischer KI aufklären

Jun 29, 2023

Geld, Märkte und maschinelles Lernen: Die Risiken gegnerischer KI aufklären

Es ist unmöglich, die entscheidende Rolle zu ignorieren, die künstliche Intelligenz (KI) und ihre Teilmenge, maschinelles Lernen, heute auf dem Aktienmarkt spielen. Während sich KI auf Maschinen bezieht, die Aufgaben ausführen können

Es ist unmöglich, die entscheidende Rolle zu ignorieren, die künstliche Intelligenz (KI) und ihre Teilmenge, maschinelles Lernen, heute auf dem Aktienmarkt spielen.

Während sich KI auf Maschinen bezieht, die Aufgaben ausführen können, für die normalerweise menschliche Intelligenz erforderlich wäre, umfasst maschinelles Lernen (ML) das Lernen von Mustern aus Daten, wodurch die Fähigkeit der Maschinen, Vorhersagen und Entscheidungen zu treffen, verbessert wird.

Eine der Hauptmethoden, mit denen die Börse maschinelles Lernen nutzt, ist der algorithmische Handel. Die ML-Modelle erkennen Muster aus riesigen Mengen an Finanzdaten und tätigen dann Geschäfte auf der Grundlage dieser Muster – Tausende und Abertausende von Geschäften in kleinen Sekundenbruchteilen. Diese algorithmischen Handelsmodelle lernen kontinuierlich und passen ihre Vorhersagen und Aktionen in einem kontinuierlich stattfindenden Prozess an, der manchmal zu Phänomenen wie Flash-Crashs führen kann, wenn bestimmte Muster eine Rückkopplungsschleife auslösen und bestimmte Marktsegmente in einen plötzlichen freien Fall versetzen.

Der algorithmische Handel ist trotz seiner gelegentlichen Nachteile für unser Finanzsystem unverzichtbar geworden. Es hat enorme Vorteile; Das ist eine andere Art zu sagen, dass es manchen Menschen sehr viel Geld einbringt. Nach Angaben des Technologiedienstleistungsunternehmens Exadel können Banken dank algorithmischem Handel bis 2030 eine Billion US-Dollar einsparen.

Eine solche Abhängigkeit von maschinellen Lernmodellen im Finanzbereich ist jedoch nicht ohne Risiken – Risiken, die sogar über Flash-Abstürze hinausgehen.

Eine erhebliche und unterschätzte Bedrohung für diese Systeme sind sogenannte gegnerische Angriffe. Diese treten auf, wenn böswillige Akteure die Eingabedaten manipulieren, die dem ML-Modell zugeführt werden, was dazu führt, dass das Modell schlechte Vorhersagen trifft.

Eine Form dieses gegnerischen Angriffs ist als „Datenvergiftung“ bekannt, bei der schlechte Akteure „Rauschen“ – oder falsche Daten – in die Eingabe einbringen. Das Training dieser verfälschten Daten kann dann dazu führen, dass das Modell ganze Datensätze falsch klassifiziert. Beispielsweise könnte ein Kreditkartenbetrugssystem fälschlicherweise betrügerische Aktivitäten zuordnen, obwohl keine stattgefunden haben.

Solche Manipulationen sind nicht nur eine theoretische Bedrohung. Die Auswirkungen von Datenvergiftung und gegnerischen Angriffen haben weitreichende Auswirkungen auf verschiedene Anwendungen des maschinellen Lernens, einschließlich Finanzprognosemodellen. In einer von Forschern der University of Illinois, IBM und anderen Institutionen durchgeführten Studie zeigten sie die Anfälligkeit von Finanzprognosemodellen gegenüber gegnerischen Angriffen. Ihren Erkenntnissen zufolge könnten diese Angriffe zu suboptimalen Handelsentscheidungen führen, die für Anleger zu Verlusten von 23 bis 32 Prozent führen könnten. Diese Studie verdeutlicht die potenzielle Schwere dieser Bedrohungen und unterstreicht die Notwendigkeit robuster Abwehrmaßnahmen gegen gegnerische Angriffe.

Die Reaktion der Finanzbranche auf diese Angriffe war oft reaktiv – ein Schlagabtausch, bei dem die Abwehrmaßnahmen erst dann erhöht werden, wenn ein Angriff stattgefunden hat. Da diese Bedrohungen jedoch in der Struktur von ML-Algorithmen selbst verankert sind, ist ein proaktiverer Ansatz die einzige Möglichkeit, dieses anhaltende Problem sinnvoll anzugehen.

Finanzinstitute müssen robuste und effiziente Test- und Bewertungsmethoden implementieren, die potenzielle Schwachstellen erkennen und sich vor diesen Angriffen schützen können. Eine solche Implementierung könnte strenge Testverfahren, den Einsatz von „Red Teams“ zur Simulation von Angriffen und eine kontinuierliche Aktualisierung der Modelle umfassen, um sicherzustellen, dass sie nicht durch böswillige Akteure oder schlechte Daten kompromittiert werden.

Die Folgen, wenn das Problem gegnerischer Angriffe im algorithmischen Handel ignoriert wird, können potenziell katastrophal sein und von erheblichen finanziellen Verlusten bis hin zu Reputationsschäden für Unternehmen oder sogar weitreichenden wirtschaftlichen Störungen reichen. In einer Welt, die zunehmend auf ML-Modelle angewiesen ist, muss der Finanzsektor von einer reaktiven zu einer proaktiven Haltung übergehen, um die Sicherheit und Integrität unseres Finanzsystems zu gewährleisten.

Joshua Steier ist technischer Analyst und Sai Prathyush Katragadda ist Datenwissenschaftler bei der gemeinnützigen, überparteilichen RAND Corporation.

Copyright 2023 Nexstar Media Inc. Alle Rechte vorbehalten. Dieses Material darf nicht veröffentlicht, ausgestrahlt, umgeschrieben oder weitergegeben werden.