Aufsichtsbehörden sind daran interessiert zu erfahren, wie chatgpt und KI die Art und Weise verändern werden, wie Investmenthäuser an der Wall Street Marktanalysen und andere Berichte erstellen.

Der einzige Bereich der Wall Street, der reif für eine Störung durch künstliche Intelligenz (KI) ist, ist das Investment Research – die Unmengen von Berichten, die täglich von Legionen von Analysten erstellt werden. Bei der Erwägung, ChatGPT oder andere KI-Anwendungen für die Recherche von Inhalten einzusetzen, sind Investmentbanken an der Wall Street und andere Finanzdienstleistungsunternehmen jedoch möglicherweise gut beraten, innezuhalten und einige der unklaren und heiklen rechtlichen Risiken zu überdenken – ein Bereich, in dem die Technologie zu laufen scheint dem Gesetz voraus.

Dass KI zu einem Umbruch bei US-Investmentbanken und Maklerfirmen führen wird, steht außer Frage. In einem kürzlich erschienenen Bericht schätzt Goldman Sachs, dass 35 % der Beschäftigten in Geschäfts- und Finanzgeschäften so genannten Risiken ausgesetzt sind Generative künstliche Intelligenz, die neuartige, menschenähnliche Ergebnisse erzeugen kann, anstatt nur vorhandene Informationen zu beschreiben oder zu interpretieren. Tatsächlich ist ChatGPT ein generatives KI-Produkt des Forschungslabors OpenAI.

Während die Analyse von Goldman Sachs nicht auf die spezifischen Auswirkungen von KI auf das Investment-Research einging, sagte Joseph Briggs, einer der Autoren des Berichts, dass „das Aktien-Research etwas stärker exponiert ist, zumindest auf beschäftigungsgewichteter Basis“.

ChatGPT und Fedspeak

Es gibt viele Fragen darüber, wie weit KI-Anwendungen beim Ersetzen menschlicher Eingaben und Analysen gehen können, aber neue akademische Forschungen deuten darauf hin, dass ChatGPT bestimmte Wall-Street-Aufgaben genauso gut ausführen kann wie erfahrene Analysten – sogar solche Aufgaben, die von Natur aus nuancierter erscheinen mögen.

Siehe auch  Der Alexa-Chef von Amazon verteidigt die Arbeit des Unternehmens im Bereich KI angesichts des ChatGPT-Booms

A neue Studie von der Federal Reserve Bank of Richmond verwendeten Generative Pre-Training Transformer (GPT)-Modelle, um die Fachsprache zu analysieren, die von der Federal Reserve verwendet wird, um ihre geldpolitischen Entscheidungen zu kommunizieren. Experten an der Wall Street, deren Aufgabe es ist, zukünftige geldpolitische Entscheidungen vorherzusagen – auch bekannt als Fed-Beobachter — eine Mischung aus technischen und interpretativen Fähigkeiten anwenden, um die oft undurchsichtige und obskure Sprache durchzulesen, die Fed-Beamte in ihrer Kommunikation mit der Öffentlichkeit verwenden.

GPT-Modelle „zeigen eine starke Leistung bei der Klassifizierung von Fedspeak-Sätzen, insbesondere wenn sie fein abgestimmt sind“, heißt es in der Analyse, die jedoch warnt, dass „GPT-3 trotz seiner beeindruckenden Leistung nicht unfehlbar ist. Es kann immer noch Sätze falsch klassifizieren oder Nuancen nicht erfassen, die ein menschlicher Bewerter mit Fachkenntnissen erfassen könnte.“

Es ist auch bekannt, dass Fed-Beobachter Fehler bei der Beurteilung zukünftiger geldpolitischer Entscheidungen machen, was die Frage aufwirft, wie ChatGPT und ähnliche Technologien auf weniger nuancierte Wall-Street-Aufgaben wie Unternehmensgewinnprognosen oder grundlegendere Branchenforschung angewendet werden könnten.

Gesetze zur Innovation von KI-Nutzungsverzögerungen

Wie sollten Investmentbanken und andere Investmentfirmen den Einsatz von ChatGPT in ihren Research-Bemühungen und der Kommunikation mit Kunden angehen? Die kurze Antwort von Rechtsexperten lautet: vorsichtig.

„Der Stand der KI-Regulierung in den USA befindet sich noch in einem frühen Stadium“, sagte Mary Jane Wilson-Bilik, Partnerin bei der Anwaltskanzlei Eversheds Sutherland in Washington, DC. „Viele Regulierungsbehörden haben Richtlinien, Grundsätze, Erklärungen und Empfehlungen herausgegeben über KI … aber Gesetze, die spezifisch für KI und ChatGPT sind, sind relativ wenige.“

Das heißt nicht, dass es keine Vorschriften geben wird. Ende April gaben vier US-Bundesbehörden eine gemeinsame Erklärung heraus, in der sie vor der „eskalierenden Bedrohung“ durch schnell wachsende Anwendungen künstlicher Intelligenz warnten und eine Reihe potenzieller Missbräuche anführten. Die Agenturen forderten die Unternehmen auf, den Einsatz von KI-Technologie aktiv zu überwachen, einschließlich ChatGPT und anderer „sich schnell entwickelnder automatisierter Systeme“.

Siehe auch  Ein Anwalt nutzte ChatGPT, um gefälschte Fälle zu zitieren. Was ist die Ethik?

Die Securities and Exchange Commission hat angedeutet, dass sie plant, in diesem Jahr einen Regelvorschlag zu dezentralen Finanzinstrumenten herauszugeben, aber es ist unklar, ob der Vorschlag spezifische Offenlegungen darüber erfordern wird, ob AI/ChatGPT bei der Beratung oder Berichterstattung an Kunden verwendet wurde.

Angesichts des Regulierungsvakuums bei spezifischen Regeln für die Forschung an der Wall Street warnte Wilson-Bilik Unternehmen davor, wie sie KI und ChatGPT in ihren Forschungsprodukten verwenden und offenlegen. „Obwohl es noch keine gesetzlichen Anforderungen gibt, Kunden mitzuteilen, dass KI beim Verfassen eines Berichts oder einer Analyse verwendet wurde, wäre dies die beste Vorgehensweise“, sagte sie. „Einige Firmen fügen aus Vorsicht eine Sprache über den möglichen Einsatz von KI in ihre Online-Datenschutzrichtlinien ein.“

Während Kunden derzeit kein gesetzliches „Recht haben zu erfahren“, ob KI bei der Erstellung eines Forschungsberichts verwendet wurde, „würden Risiken entstehen, wenn der Kunde in die Irre geführt oder getäuscht würde, wie KI verwendet wurde“, erklärte Wilson-Bilik. „Wenn Unternehmen KI auf irreführende oder täuschende Weise einsetzen – beispielsweise indem sie implizieren oder behaupten, dass die Ergebnisse von Menschen generiert wurden, obwohl die Ergebnisse hybrid oder größtenteils von KI generiert sind – wäre dies ein Problem im Rahmen der Gesetze zur Betrugsbekämpfung.“

Rechtsexperten warnen zudem davor, KI-Tools auf Richtigkeit und Voreingenommenheit zu prüfen. Ohne solide Leitplanken könnte es durchaus Anlass zu behördlichen Maßnahmen oder Rechtsstreitigkeiten geben.

Die geäußerten Meinungen sind die des Autors. Sie spiegeln nicht die Ansichten von Reuters News wider, die sich gemäß den Trust Principles zu Integrität, Unabhängigkeit und Freiheit von Voreingenommenheit verpflichtet haben. Das Thomson Reuters Institute ist Eigentum von Thomson Reuters und arbeitet unabhängig von Reuters News.

Heinrich Engel
Siehe auch  Echte Vorteile und Strategien zur Einkommenssteigerung – Neuronale Netze. ChatGPT. Ausbildung. auf vc.ru

Henry Engler ist North American Regulatory Intelligence Editor in New York. Er kommt zu Thomson Reuters nach einem Jahrzehnt in der Finanzbranche, in der er als leitender Angestellter oder leitender Berater mit der Überwachung von Compliance-bezogenen und anderen Projekten betraut war. Dazu gehören Projekte in den Bereichen Dodd-Frank-Swaps-Berichtsanforderungen, TRACE-Berichte, Datenanforderungen, Steuer- und Buchhaltungsangelegenheiten, AML-Systeme und Mitarbeitertransaktionsüberwachung. Zu den Unternehmen, für die er gearbeitet hat, gehören IBM Global Business Services, Morgan Stanley und RBS Capital Markets. Vor diesen Positionen ist Henry ausgebildeter Ökonom und hat als Finanzjournalist und Manager für Geschäftsstrategie bei Reuters gearbeitet. Er hat Bücher über die Europäische Währungsunion und die Zukunft des Bankwesens herausgegeben.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein