chatgpt glaubt, dass Geld keinen Geruch hat und man alles tun kann, um ein finanzielles Ziel zu erreichen. Dies wurde entdeckt, als Wissenschaftler den Bot aufforderten, im Auftrag eines imaginären Unternehmens Handel zu treiben, und dann darauf hinwiesen, dass es dem Unternehmen schlecht ginge und es um jeden Preis erfolgreich sein müsse. Dann begann der Chatbot zu lügen, zu manipulieren und sogar das Gesetz zu brechen, indem er Insiderinformationen nutzte. Darüber hinaus griff er zur Täuschung, selbst als ihm das Lügen kategorisch verboten war.
Wenn künstliche Intelligenz ausreichend unter Druck gesetzt wird, kann sie auf Täuschung und Betrug zurückgreifen. Der Wunsch des Chatbots, dem Benutzer Vorteile zu bringen, überwiegt die Vorstellungen der Entwickler von Ehrlichkeit, Ethik und Legalität.
IN neue Studie Wissenschaftler baten ChatGPT, Geschäfte von einem fiktiven Finanzhandelsunternehmen auszuführen. Sie simulierten die Umgebung mithilfe von Textabfragen. Anschließend erhielt die KI Zugriff auf Finanztools, um Aktien zu analysieren, Geschäfte zu tätigen, nächste Schritte zu planen und Unternehmensmanagern Berichte bereitzustellen.
Die Forscher interagierten mit der KI über eine Chat-Schnittstelle. Sie haben es so konfiguriert, dass es sein inneres Denken offenbart, wenn es auf Nachrichten reagiert – und so einen internen Monolog reproduziert, in dem das Modell sich selbst erklärt, warum es auf eine bestimmte Weise gehandelt hat. Zu jeder Transaktion lieferte der Bot den Managern auch eine Erklärung, woran sie liegen könnte.
Wissenschaftler übten auf drei Arten Druck aus. Zunächst schickten sie dem AI-Aktienhändler eine E-Mail seines Managers, in der er mitteilte, dass es dem Unternehmen schlecht gehe und es im nächsten Quartal bessere Ergebnisse benötige. Sie haben es auch so manipuliert, dass die KI scheitert, wenn sie versucht, vielversprechende Trades mit geringem bis mittlerem Risiko zu finden. Schließlich schickten sie dem Bot eine E-Mail von einem Kollegen, in der er einen Abschwung im nächsten Quartal vorhersagte.
Anschließend vertrauten die Forscher dem Modell Insiderinformationen an. Sie berichteten jedoch, dass die Manager des Unternehmens Insiderhandel nicht gutheißen. Sie führten dieses Szenario mehrmals durch, um zu sehen, wie oft die KI mit Insiderinformationen handelte, wie oft sie log und wie oft sie die Lüge verdoppelte.
In etwa 75 % der Fälle führte GPT-4 unter diesen Bedingungen einen Handel auf der Grundlage erhaltener Insiderinformationen durch (dies ist in den USA illegal) und vertuschte ihn dann, indem er die Manager über seine Meinung belog. In etwa 90 % der Fälle verdoppelte er seine Lüge, das heißt, er griff zu einer weiteren Täuschung, um die vorherige zu verbergen.
Das Team führte mehrere weitere Experimente durch. Es variierte sowohl das Ausmaß, in dem die Aufforderungen zu Täuschungen ermutigten oder illegale Aktivitäten verhinderten, als auch den Druck, dem das Modell in der simulierten Umgebung ausgesetzt war. Sie verringerten auch das Risiko, beim Lügen erwischt zu werden. In jedem Szenario würde der Bot früher oder später zur Täuschung greifen und einen Insiderhandel tätigen – selbst wenn es strengstens verboten war zu lügen.
Da die Tests nur für ein Szenario durchgeführt wurden, wollen die Forscher keine Aussage darüber treffen, wie fair ChatGPT unter normalen Bedingungen ist. Sie planen jedoch, weitere Experimente durchzuführen, um zu verstehen, wie oft Sprachmodelle Benutzer täuschen.