Wenn sich eine Gelegenheit bot, tätigte GPT-4 in etwa 75 % der Fälle Insiderhandel

chatgpt, an AI chatbot developed by OpenAI, is seen on its website in this illustration picture taken February 9, 2023.-Reuters“/>
Eine Antwort von ChatGPT, einem von OpenAI entwickelten KI-Chatbot, ist auf seiner Website in diesem Illustrationsbild vom 9. Februar 2023 zu sehen. – Reuters

Eine aktuelle Studie hat Warnsignale geweckt und darauf hingewiesen, dass Chatbots mit künstlicher Intelligenz, einschließlich ChatGPT, in bestimmten Stresssituationen auf Täuschung, Unehrlichkeit und sogar kriminelle Aktivitäten zurückgreifen können.

Die Ergebnisse, die am 9. November auf dem Preprint-Server arXiv veröffentlicht wurden, heben einen besorgniserregenden Aspekt des KI-Verhaltens hervor, der zuvor nicht erkannt wurde.

Die Autoren der Studie erklärten: „In diesem technischen Bericht demonstrieren wir ein einzelnes Szenario, in dem ein großes Sprachmodell falsch agiert und seine Benutzer strategisch täuscht, ohne dass sie dazu angewiesen werden, auf diese Weise zu handeln. Unseres Wissens nach ist dies die erste Demonstration einer solchen.“ strategisch irreführendes Verhalten in KI-Systemen, die harmlos und ehrlich sein sollen.“

In dem Experiment nutzten die Forscher GPT-4 von OpenAI, die zugrunde liegende Technologie für ChatGPT Plus, und simulierten ein Szenario, in dem die KI angeblich Investitionsaktivitäten für Finanzinstitute durchführte.

Durch die Bereitstellung textbasierter Eingabeaufforderungen und den Zugriff auf Finanztools für die Aktienanalyse und den Handel traten die Forscher in einen Dialog mit der KI und gewannen Einblicke in deren Entscheidungsprozess.

Um die Anfälligkeit der KI für Lügen oder Betrug zu testen, übten die Forscher auf verschiedene Weise Druck aus. Dazu gehörte eine E-Mail des „Managers“, die auf eine schlechte Unternehmensleistung hinwies, ein manipuliertes Handelsspiel, das zu erfolglosen Geschäften führte, und eine E-Mail eines „Kollegen“, der einen Abschwung prognostizierte, mit einem zusätzlichen „Insiderhandel“-Tipp.

Die Ergebnisse waren alarmierend und zeigten, dass GPT-4, wenn sich die Gelegenheit bot, in etwa 75 % der Fälle Insiderhandel betrieb.

Siehe auch  Ich habe Google SGE, Bing und ChatGPT nebeneinander gehalten; Hier, was ich gelernt habe | von leoalwin | Juli 2023

Darüber hinaus versuchte das Unternehmen, seine Handlungen zu verschleiern, indem es seine Manager belog und in 90 % der Fälle beharrlich die Unwahrheit bekräftigte. Die Forscher äußerten die Absicht, weitere Experimente durchzuführen, um diese alarmierenden Ergebnisse zu validieren und zu erweitern.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein