Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

woman with text projected on her face
pexels.com

Angriff der Roboter: SEC-Vorsitzender sagt voraus, dass KI eine Finanzkrise verursachen könnte

Im Juli führte ein Datenleck dazu, dass die US-amerikanische Federal Trade Commission eine Untersuchung des beliebten ChatGPT-Sprachmodells eröffnete, das gelegentlich falsche Informationen liefert. Jetzt fordern Regulierungsbehörden ähnliche Untersuchungen des Einsatzes von künstlicher Intelligenz in der Finanzbranche.

Beobachter des US-Aktienmarktes erinnern sich möglicherweise an ein merkwürdiges Ereignis Anfang 2010, als Algorithmen eine Reihe von Hochfrequenzhandelstransaktionen auslösten, die die Indizes für einen kurzen Moment um mehr als eine Billion Dollar abstürzen ließen. Der Markt erholte sich innerhalb weniger Minuten, aber der Vorsitzende der US-Börsenaufsichtsbehörde (Securities and Exchange Commission, SEC) warnt davor, dass ein ähnliches Ereignis, ausgelöst durch künstliche Intelligenz (KI)-Technologie, bis zum Ende des Jahrzehnts eine ernstere Krise verursachen könnte.

“Ich glaube, dass wir in Zukunft eine Finanzkrise haben werden”, sagte SEC-Vorsitzender Gary Gensler in einem Interview mit britischen Medien. “In den Berichten nach den Ereignissen werden die Leute sagen: ‘Aha! Es gab entweder einen Datenaggregator oder ein Modell… auf das wir uns verlassen haben.’ Vielleicht ist es im Hypothekenmarkt. Vielleicht ist es in einem Sektor des Aktienmarktes.”

Obwohl künstliche Intelligenz finanzielle Marktbewegungen über verschiedene Implementierungen hinweg antreibt, weist Gensler darauf hin, dass eine geringe Anzahl von KI-Modellen wie OpenAI’s ChatGPT derzeit solche Werkzeuge antreibt. Ein Problem dabei ist die proprietäre, geschlossene Natur solcher Modelle, die öffentliche Überprüfungen verhindert.

Die Vielfalt der beteiligten Branchen trägt ebenfalls zum Dilemma bei, bemerkte Gensler, da KI-Werkzeuge, die im Silicon Valley entwickelt wurden, möglicherweise außerhalb der typischen Zuständigkeit der staatlichen Finanzaufsichtsbehörden fallen.

“Ich habe das beim Financial Stability Board angesprochen. Ich habe es beim Financial Stability Oversight Council angesprochen. Ich denke, es ist wirklich eine Herausforderung, die die verschiedenen Regulierungsbehörden betrifft”, sagte Gensler.

Die Europäische Union hat bereits umfassende Vorschriften für die Nutzung von KI entworfen, aber die Vereinigten Staaten haben langsamer reagiert. Im Juli wurde eine bescheidenere Regel vorgeschlagen, die von Unternehmen verlangt, “Interessenkonflikte” zu ihrem Einsatz von Predictive Analytics-Tools offenzulegen.

Umfassendere regulatorische Maßnahmen, einschließlich der von der SEC vorgeschlagenen Regel, die börsennotierte Unternehmen zur Offenlegung von Informationen über Kohlenstoffemissionen zwingt, sind auf rechtliche Herausforderungen und Widerstand von Vertretern der Republikanischen Partei gestoßen. Eine solche Umgebung könnte sich als Hindernis für umfassendere Maßnahmen seitens der US-Finanzaufsichtsbehörde erweisen.

Die Fähigkeit der KI-Technologie, menschliche Interaktion überzeugend zu simulieren, hat in verschiedenen Bereichen Bedenken hervorgerufen. Eine kürzlich durchgeführte Umfrage unter Fachleuten für Finanzbetrug und Risiko ergab, dass der Einsatz von KI-Tools für betrügerische Online-Bankaktivitäten ein wachsendes und anerkanntes Problem darstellt.

Die beunruhigende Fähigkeit der KI, Telefonanrufe von Freunden und Angehörigen in Notlage zu simulieren, hat ebenfalls erhebliche Schlagzeilen generiert.

“Die Technologie, die uns befähigt, kann uns auch gefährden”, sagte der Autor und Datenschutzexperte Nick Shevelyov. “Alles beschleunigt sich. Die Technologien, die zur Verteidigung gegen [Betrug] eingesetzt werden, werden besser, aber auch die Verbreitung falscher Identitäten nimmt zu.”