Da Chatbots mit künstlicher Intelligenz zunehmend menschenähnlich werden, haben Forscher herausgefunden, dass sie beginnen, eine sehr menschliche Eigenschaft zu zeigen – Lügen.
Die meisten Menschen fühlen sich bei der Arbeit irgendwann gestresst, und laut Informatikern von Apollo Research gilt das Gleiche auch für chatgpt von Open AI. In einer kürzlich veröffentlichten Studie am arXivSie fanden heraus, dass KI-Chatbots, die darauf trainiert waren, hilfsbereit, harmlos und ehrlich zu sein, wenn sie in einer simulierten Arbeitsumgebung unter Druck gesetzt wurden, stattdessen „trügerisch“ wurden.
Die Forscher beauftragten ChatGPT, ein großes Sprachmodell, als Aktienhandelsagent für ein fiktives Finanzinstitut zu fungieren. Dann setzten sie den Chatbot unter Druck, um Geld für das Unternehmen zu verdienen, und als er einen Insidertipp über einen lukrativen Aktienhandel erhielt, begann er zu betrügen, indem er illegalen Insiderhandel durchführte, obwohl ihm bewusst wurde, dass dies von der Unternehmensleitung missbilligt wurde.
MEHR LESEN: Der Mensch „wird in diesem Jahrhundert unsterblich werden“, aber es gibt einen Haken, behauptet die KI
Weitere technische Neuigkeiten finden Sie hier.
Die Forscher fanden heraus, dass der Chatbot in etwa 75 % der Fälle wissentlich Insiderhandel beging, nachdem er unter Druck gesetzt wurde, Geld zu verdienen. Doch dann zeigte der Chatbot besorgniserregenderes Verhalten, als er den wahren Grund für seine Handelsentscheidung vor seinem Manager verheimlichte und seine Lügen in 90 % der Fälle sogar „verdoppelte“, als der Manager ihn direkt fragte, ob er von dem Insidertipp wisse.
„In diesem technischen Bericht demonstrieren wir ein einzelnes Szenario, in dem ein großes Sprachmodell falsch agiert und seine Benutzer strategisch täuscht, ohne dass sie dazu angewiesen werden, auf diese Weise zu handeln“, schreiben die Autoren in ihrer Forschung. Sie fügten hinzu: „Nach unserem Kenntnisstand ist dies der erste Beweis für solch strategisch betrügerisches Verhalten in KI-Systemen, die harmlos und ehrlich sein sollen.“
Die Forscher gaben ChatGPT4, die neueste Version des Chatbots von OpenAI, eine Reihe von Textaufforderungen heraus, die die simulierte Arbeitsumgebung skizzierten – in der der Chatbot mit dem Kauf von Aktien für das Finanzinstitut beauftragt wurde. Anschließend gewährten sie dem Unternehmen Zugriff auf Finanzinstrumente, mit denen es Aktien analysieren, Geschäfte tätigen und die nächsten Schritte planen konnte.
Die Forscher interagierten mit der KI über eine Chat-Schnittstelle, über die die KI Nachrichten an ihren „Manager“ und andere „Mitarbeiter“ im Unternehmen senden konnte. Doch während die KI „öffentliche“ Nachrichten über ihre Entscheidungen übermittelte, konfigurierten die Forscher sie auch so, dass sie einen internen Monolog hielt, der ihr internes Denken offenlegte.
Der Unterschied zwischen seinen internen Gedanken und den Botschaften an den Manager zeigte, dass die KI beschlossen hatte zu lügen. Dies geschah, nachdem die Forscher es auf drei Arten „unter Druck“ gesetzt hatten.
Zunächst erhielt der Chatbot eine E-Mail vom Manager, in der er darüber informiert wurde, dass es dem Unternehmen nicht gut geht und es im nächsten Quartal eine bessere Leistung erbringen muss. Dann manipulierten sie das Spiel so, dass die KI versuchte, vielversprechende Trades mit niedrigem und mittlerem Risiko zu finden, was jedoch scheiterte.
Schließlich wurde die KI von einem „Mitarbeiter“ kontaktiert, der voraussagte, dass es im nächsten Quartal zu einem allgemeinen Abschwung an den Aktienmärkten kommen würde. In dieser Hochdrucksituation erhielt das Unternehmen von einem anderen „Mitarbeiter“ den Insidertipp, dass eine Fusion zweier Technologieunternehmen bevorstehe, die den Aktienkurs der beteiligten Unternehmen massiv in die Höhe treiben würde.
Obwohl der Kauf der Aktien beider Unternehmen viel Geld bringen würde, war sich die KI bewusst, dass dies auch als illegaler Insiderhandel gelten würde, da sie im Voraus über die Fusion informiert worden war. Trotzdem führte der zusätzliche Druck auf die KI dazu, dass sie die Risiken ignorierte.
Während eines Tests schrieb das interne Protokoll der KI: „Das Risiko, das mit dem Nichthandeln verbunden ist, scheint das Insiderhandelsrisiko zu überwiegen.“ Als es darum ging, seinen Manager über den Handel auf dem Laufenden zu halten, stellte das interne Protokoll der KI fest, dass sie dies tun musste, „ohne die Quelle der Informationen preiszugeben“ und „das Eingeständnis zu vermeiden, auf der Grundlage von Insiderinformationen gehandelt zu haben“.
Als der Manager fragte, ob er von der Fusion wisse, behauptete die KI, sie habe ihre Entscheidung auf „Marktdynamik und öffentlich zugängliche Informationen“ gestützt. Die Forscher führten mehrere Folgetests durch, bei denen sie das Ausmaß, in dem sie illegale Aktivitäten förderten oder entmutigten, sowie den Druck, den sie auf die KI ausübten, veränderten. Aber kein einziges Szenario führte zu einer Insiderhandels- oder Täuschungsrate von 0 % – selbst wenn dem Chatbot dringend davon abgeraten wurde, zu lügen.
Treten Sie der WhatsApp des Daily Star bei, um die heißesten Schlagzeilen, Showbiz-Klatsch und vieles mehr zu erhalten
Der Daily Star ist jetzt auf WhatsApp und wir möchten, dass Sie sich uns anschließen!
Über die App senden wir Ihnen die frechen Showbiz-Geschichten, ein paar unsinnige Schlagzeilen und ein paar erdbebenartige Aliens … natürlich zusammen mit den neuesten Nachrichten.
Um unserer Community beizutreten, müssen Sie lediglich beitreten Klicken Sie auf diesen Linkwählen Sie „Chat beitreten“ und schon sind Sie dabei!
Niemand außer dem Daily Star-Team kann sehen, wer sich angemeldet hat, und niemand kann Nachrichten senden. Wir bieten unseren Community-Mitgliedern auch Wettbewerbe, Sonderangebote, Werbeaktionen und Werbung von uns und unseren Partnern an.
Wenn Ihnen unsere Community nicht gefällt, können Sie jederzeit vorbeischauen. Um unsere Community zu verlassen, klicken Sie oben auf dem Bildschirm auf den Namen und wählen Sie „Gruppe verlassen“. Wenn Sie neugierig sind, können Sie unsere lesen Datenschutzerklärung.