OpenAI, der Hersteller von chatgpt, hat Bedenken geäußert, dass bei Benutzern eine emotionale Abhängigkeit vom kommenden Sprachmodus des Chatbots entstehen könnte.

Der ChatGPT-4o-Modus wird derzeit auf seine Sicherheit hin analysiert, bevor er der Öffentlichkeit zugänglich gemacht wird. Er ermöglicht es Benutzern bis zu einem gewissen Grad, sich auf natürliche Weise mit dem Assistenten zu unterhalten, als wäre er eine echte Person.

Damit geht das Risiko emotionaler Abhängigkeit und „zunehmend fehlkalibrierten Vertrauens“ in ein KI-Modell einher, das durch die Interaktion mit einer unheimlich menschenähnlichen Stimme noch verstärkt würde. Eine Stimme, die durch den Tonfall auch die Emotionen des Benutzers berücksichtigen kann.

Mit diesem Amazon-Angebot viel Geld bei der PlayStation VR 2 sparen

Der Preis für die PS VR 2 ist bei Amazon auf nur noch 423,50 £ gefallen. Sparen Sie 97,49 £ beim Kauf des 4K-Gaming-Headsets, wenn Sie heute einkaufen. Das sind 18 % Rabatt auf den UVP des Headsets von 529,99 £ für 2023.

  • Amazonas
  • Vorher 529,99 £
  • 423,50 €

Angebot anzeigen

Der Ergebnisse der Sicherheitsüberprüfung (über Verdrahtet), die diese Woche veröffentlicht wurde, äußerte Bedenken hinsichtlich einer Sprache, die ein Gefühl gemeinsamer Bindungen zwischen Mensch und KI widerspiegelt.

„Obwohl diese Fälle harmlos erscheinen, zeigen sie, dass weitere Untersuchungen erforderlich sind, um herauszufinden, wie sich diese Auswirkungen über längere Zeiträume manifestieren könnten“, heißt es in der Studie. Außerdem heißt es, dass die Abhängigkeit von der KI die Beziehungen zu anderen Menschen beeinträchtigen könnte.

„Eine menschenähnliche Sozialisation mit einem KI-Modell kann externe Effekte erzeugen, die sich auf die zwischenmenschlichen Interaktionen auswirken. Beispielsweise könnten Benutzer soziale Beziehungen mit der KI aufbauen, wodurch ihr Bedarf an menschlicher Interaktion sinkt – was möglicherweise einsamen Menschen zugutekommt, sich aber möglicherweise auch auf gesunde Beziehungen auswirkt. Eine längere Interaktion mit dem Modell könnte soziale Normen beeinflussen. Beispielsweise sind unsere Modelle respektvoll und erlauben es Benutzern, jederzeit zu unterbrechen und ‚das Mikrofon zu übernehmen‘, was zwar für eine KI zu erwarten ist, bei menschlichen Interaktionen jedoch antinormativ wäre“, heißt es in dem Dokument weiter.

Siehe auch  OpenAI arbeitet mit TIME zusammen, um sein Chatbot-Modell ChatGPT zu trainieren

Darüber hinaus wurde in der Überprüfung auf die Möglichkeit einer übermäßigen Vertrauens- und Abhängigkeitszunahme hingewiesen.

„Die Fähigkeit, Aufgaben für den Benutzer zu erledigen und dabei auch wichtige Details zu speichern, sich daran zu erinnern und diese im Gespräch zu verwenden, schafft einerseits ein überzeugendes Produkterlebnis, birgt aber andererseits auch das Potenzial für übermäßige Verlässlichkeit und Abhängigkeit.“

Das Team sagte, es werde weitere Studien zum Potenzial emotionaler Abhängigkeit von der sprachbasierten Version von ChatGPT geben. Die Funktion erregte Anfang des Sommers aufgrund der verblüffenden Ähnlichkeit der Stimme mit der Schauspielerin Scarlett Johansson große Aufmerksamkeit. Der Hollywoodstar, der im Film „Her“ tatsächlich eine KI spielte, in die sich sein Benutzer verliebte, lehnte das Angebot ab, OpenAIs Assistentin zu sprechen.

Das Endergebnis klang jedoch trotzdem verdächtig wie sie, obwohl CEO Sam Altman darauf beharrte, dass die Stimme nicht geklont sei.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein