Einer dieser Berater war Alan Smith, CEO von Capital Asset Management, der auf X, früher bekannt als Twitter, schrieb: „Ich habe aus zuverlässiger Quelle gehört, dass einige Berater vollständige Finanzdaten von Kunden in ChatGPT eingegeben haben, um Eignungsberichte zu schreiben.“
Das gleiche Phänomen wurde von Model Office-Gründer Chris Davies gemeldet, der sagte: „Ich habe gehört, dass es eine kleine Anzahl von Beratungsfirmen gibt, die ChatGPT verwenden, um zu versuchen, anhand der Finanzdaten ihrer Kunden eine Art Eignungsbericht zu erstellen.“
Risiken
Davies sagte gegenüber FTAdviser, dass die damit verbundenen Risiken „astronomisch“ seien, wobei der Hauptgrund darin bestehe, dass ChatGPT „völlig neue Software“ sei.
Ein solches Problem, das Davies identifizierte, war die Verletzung des geistigen Eigentums.
„Sie können Informationen auf ChatGPT einstellen, die das geistige Eigentum einer anderen Person oder anderer Firmen oder Unternehmen verletzen könnten“, erklärte er.
Dies liegt daran, dass das KI-System Ausgaben generiert, die Reproduktionen bestehender IP-geschützter Werke sind.
Er warnte auch davor, dass es Probleme beim Datenschutz gebe, und erklärte, es handele sich um eine „Frage der Kundeneinwilligung“.
„Sind diese Kunden daran beteiligt, damit diese Firmen das Gefühl haben, dass sie befugt sind, die Finanzdaten in ChatGPT einzugeben?“
Während dies die „zwei großen Probleme“ waren, die Davies erwähnte, identifizierte er auch andere Probleme mit der Praxis, wie etwa die mögliche Fehlfunktion der Technologie.
Er bezeichnete dies als „Halluzination“, die dazu führen könnte, dass die Technologie nicht wie erwartet reagiert.
Als Beispiel verwies er auf google Bard, das beim Start fälschlicherweise das falsche Teleskop für die Aufnahme eines Bildes des nächstgelegenen Planeten außerhalb unseres Sonnensystems angegeben hatte.
Er räumte zwar ein, dass es sich dabei um ein „extremes Beispiel“ handele, fügte jedoch hinzu, dass es zeige, dass eine solche Technologie „zu diesem Zeitpunkt keineswegs zuverlässig ist“.
Gründe warum
Als er darüber sprach, warum Berater sich auf diese Praxis einlassen könnten, erklärte Davies: „Es gibt ein Element der Faulheit.
„Das Problem mit KI ist, dass sie Menschen faul machen kann, weil sie viele Dinge automatisiert, die wir normalerweise tun müssten, und wir glauben, dass sie die Arbeit für uns erledigen wird.“
Er wies auch darauf hin, dass solche Berater „ihre Hausaufgaben nicht machen“, und verwies auf die Vielfalt der Tools auf dem Markt, die eine ähnliche Funktion auf sehr sichere Weise bereitstellen können.
„Es gibt Tools, mit denen man einen Eignungsbericht schreiben kann“, sagte er.
Die helle Seite
Obwohl es bei der oben erwähnten Verwendung von ChatGPT viele Probleme gab, machte Davies deutlich, dass die Verwendung von Chatbots in der Finanzberatung nicht grundsätzlich schlecht ist.
„Sie können den Chat-Bot auf eine bestimmte Weise nutzen, solange Sie es richtig machen.