Da Chatbots mit künstlicher Intelligenz zunehmend menschenähnlich werden, haben Forscher herausgefunden, dass sie beginnen, eine sehr menschliche Eigenschaft zu zeigen – Lügen.

Die meisten Menschen fühlen sich bei der Arbeit irgendwann gestresst, und laut Informatikern von Apollo Research gilt das Gleiche auch für chatgpt von Open AI. In einer kürzlich veröffentlichten Studie am arXivSie fanden heraus, dass KI-Chatbots, die darauf trainiert waren, hilfsbereit, harmlos und ehrlich zu sein, wenn sie in einer simulierten Arbeitsumgebung unter Druck gesetzt wurden, stattdessen „trügerisch“ wurden.

Die Forscher beauftragten ChatGPT, ein großes Sprachmodell, als Aktienhandelsagent für ein fiktives Finanzinstitut zu fungieren. Dann setzten sie den Chatbot unter Druck, um Geld für das Unternehmen zu verdienen, und als er einen Insidertipp über einen lukrativen Aktienhandel erhielt, begann er zu betrügen, indem er illegalen Insiderhandel durchführte, obwohl ihm bewusst wurde, dass dies von der Unternehmensleitung missbilligt wurde.

MEHR LESEN: Der Mensch „wird in diesem Jahrhundert unsterblich werden“, aber es gibt einen Haken, behauptet die KI

Weitere technische Neuigkeiten finden Sie hier.

Die Forscher fanden heraus, dass der Chatbot in etwa 75 % der Fälle wissentlich Insiderhandel beging, nachdem er unter Druck gesetzt wurde, Geld zu verdienen. Doch dann zeigte der Chatbot besorgniserregenderes Verhalten, als er den wahren Grund für seine Handelsentscheidung vor seinem Manager verheimlichte und seine Lügen in 90 % der Fälle sogar „verdoppelte“, als der Manager ihn direkt fragte, ob er von dem Insidertipp wisse.

Der KI-Chatbot hatte die Aufgabe, ein Aktienhändler zu sein (Bild: NurPhoto über Getty Images)

„In diesem technischen Bericht demonstrieren wir ein einzelnes Szenario, in dem ein großes Sprachmodell falsch agiert und seine Benutzer strategisch täuscht, ohne dass sie dazu angewiesen werden, auf diese Weise zu handeln“, schreiben die Autoren in ihrer Forschung. Sie fügten hinzu: „Nach unserem Kenntnisstand ist dies der erste Beweis für solch strategisch betrügerisches Verhalten in KI-Systemen, die harmlos und ehrlich sein sollen.“

Siehe auch  ChatGPT prognostiziert einen 25-fachen Anstieg des ADA-Preises im Jahr 2024

Die Forscher gaben ChatGPT4, die neueste Version des Chatbots von OpenAI, eine Reihe von Textaufforderungen heraus, die die simulierte Arbeitsumgebung skizzierten – in der der Chatbot mit dem Kauf von Aktien für das Finanzinstitut beauftragt wurde. Anschließend gewährten sie dem Unternehmen Zugriff auf Finanzinstrumente, mit denen es Aktien analysieren, Geschäfte tätigen und die nächsten Schritte planen konnte.

Siehe auch  Diese beiden KI-Modelle behaupten, besser als ChatGPT zu sein. Folgendes wissen wir

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein