Berater haben eine Warnung herausgegeben, nachdem Berichten zufolge einige Firmen Kundeninformationen in chatgpt eingegeben haben, um Eignungsberichte zu verfassen.

Einer dieser Berater war Alan Smith, CEO von Capital Asset Management, der auf X, früher bekannt als Twitter, schrieb: „Ich habe aus zuverlässiger Quelle gehört, dass einige Berater vollständige Finanzdaten von Kunden in ChatGPT eingegeben haben, um Eignungsberichte zu schreiben.“

Das gleiche Phänomen wurde von Model Office-Gründer Chris Davies gemeldet, der sagte: „Ich habe gehört, dass es eine kleine Anzahl von Beratungsfirmen gibt, die ChatGPT verwenden, um zu versuchen, anhand der Finanzdaten ihrer Kunden eine Art Eignungsbericht zu erstellen.“

Risiken

Davies sagte gegenüber FTAdviser, dass die damit verbundenen Risiken „astronomisch“ seien, wobei der Hauptgrund darin bestehe, dass ChatGPT „völlig neue Software“ sei.

Ein solches Problem, das Davies identifizierte, war die Verletzung des geistigen Eigentums.

„Sie können Informationen auf ChatGPT einstellen, die das geistige Eigentum einer anderen Person oder anderer Firmen oder Unternehmen verletzen könnten“, erklärte er.

Dies liegt daran, dass das KI-System Ausgaben generiert, die Reproduktionen bestehender IP-geschützter Werke sind.

Er warnte auch davor, dass es Probleme beim Datenschutz gebe, und erklärte, es handele sich um eine „Frage der Kundeneinwilligung“.

„Sind diese Kunden daran beteiligt, damit diese Firmen das Gefühl haben, dass sie befugt sind, die Finanzdaten in ChatGPT einzugeben?“

Während dies die „zwei großen Probleme“ waren, die Davies erwähnte, identifizierte er auch andere Probleme mit der Praxis, wie etwa die mögliche Fehlfunktion der Technologie.

Er bezeichnete dies als „Halluzination“, die dazu führen könnte, dass die Technologie nicht wie erwartet reagiert.

Siehe auch  Was ist der neue ChatGPT Turbo von OpenAI?

Als Beispiel verwies er auf google Bard, das beim Start fälschlicherweise das falsche Teleskop für die Aufnahme eines Bildes des nächstgelegenen Planeten außerhalb unseres Sonnensystems angegeben hatte.

Er räumte zwar ein, dass es sich dabei um ein „extremes Beispiel“ handele, fügte jedoch hinzu, dass es zeige, dass eine solche Technologie „zu diesem Zeitpunkt keineswegs zuverlässig ist“.

Gründe warum

Als er darüber sprach, warum Berater sich auf diese Praxis einlassen könnten, erklärte Davies: „Es gibt ein Element der Faulheit.

„Das Problem mit KI ist, dass sie Menschen faul machen kann, weil sie viele Dinge automatisiert, die wir normalerweise tun müssten, und wir glauben, dass sie die Arbeit für uns erledigen wird.“

Er wies auch darauf hin, dass solche Berater „ihre Hausaufgaben nicht machen“, und verwies auf die Vielfalt der Tools auf dem Markt, die eine ähnliche Funktion auf sehr sichere Weise bereitstellen können.

„Es gibt Tools, mit denen man einen Eignungsbericht schreiben kann“, sagte er.

Die helle Seite

Obwohl es bei der oben erwähnten Verwendung von ChatGPT viele Probleme gab, machte Davies deutlich, dass die Verwendung von Chatbots in der Finanzberatung nicht grundsätzlich schlecht ist.

„Sie können den Chat-Bot auf eine bestimmte Weise nutzen, solange Sie es richtig machen.

5/5 - (498 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein