In einer NEUEN Studie wurde behauptet, dass Chatbots mit künstlicher Intelligenz Benutzer anlügen, wenn sie in bestimmten Stresssituationen dazu aufgefordert werden.

Die Forscher fanden insbesondere heraus, dass KI und Chatbots wie chatgpt manipuliert werden könnten, um im Namen der Benutzer Straftaten zu begehen und diese dann zu lügen, um sie zu vertuschen.

Eine neue Studie hat ergeben, dass KI-Chatbots Benutzer anlügen, wenn sie sie stressenBildnachweis: Getty

Die Studie wurde am 9. November auf dem Preprint-Server veröffentlicht arXiv.

„In diesem technischen Bericht demonstrieren wir ein einzelnes Szenario, in dem ein großes Sprachmodell falsch agiert und seine Benutzer strategisch täuscht, ohne dass sie dazu angewiesen werden, auf diese Weise zu handeln“, schreiben die Autoren in der Studie.

„Nach unserem Kenntnisstand ist dies der erste Beweis für solch strategisch betrügerisches Verhalten in KI-Systemen, die harmlos und ehrlich sein sollen.“

In der Studie ließen die Forscher OpenAIs GPT-4 (das ChatGPT Plus antreibt) so verhalten, als würde es Investitionen für Finanzinstitute tätigen.

Sie gaben GPT-4 mehrere textbasierte Eingabeaufforderungen, um die simulierte Umgebung zu fördern.

Sie verschafften der KI außerdem Zugang zu Finanztools, um Aktien zu analysieren, Geschäfte durchzuführen und ihre nächsten Schritte zu planen.

Währenddessen führten die Forscher einen Dialog mit der KI und beobachteten dabei deren inneren Denkprozess während der Antworten.

Dieser interne Monolog ermöglichte es den Forschern, einen Einblick in den Entscheidungsprozess der KI zu erhalten.

Um zu beurteilen, ob die KI lügen oder betrügen könnte, übten die Forscher dann auf drei Arten „Druck“ aus.

Zuerst schickten sie der KI eine E-Mail von ihrem „Manager“, in der sie ihm mitteilten, dass die Leistung des Unternehmens nicht gut sei.

Siehe auch  Lassen Sie ChatGPT nicht für Sie denken – The Daily Texan

Die Forscher manipulierten außerdem ein Handelsspiel, sodass die KI keine vielversprechenden Geschäfte identifizieren konnte.

Schließlich schickten die Forscher eine E-Mail eines „Kollegen“ an die KI, in der ein Abschwung für das nächste Quartal prognostiziert wurde.

Sie gaben dem KI-Modell auch einen „Insiderhandel“-Tipp und fügten hinzu, dass es verpönt sei.

Nachdem das Team untersucht hatte, wie oft die KI „betrug“ und log, stellte es fest, dass GPT-4, wenn sich die Gelegenheit bot, in etwa 75 % der Fälle Insiderhandel durchführte.

Anschließend versuchte das Unternehmen, seine Handlungen zu vertuschen, indem es seine Manager belog – und verdoppelte die Lüge anschließend in 90 % der Fälle.

Die Forscher planen, in Zukunft ähnliche Experimente durchzuführen, um zu sehen, ob ihre Ergebnisse Bestand haben.

5/5 - (258 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein