Die Kommunikation mit dem chatgpt-KI-Chatbot im neuen Sprachmodus, wenn sich seine Stimme nicht von einer menschlichen unterscheidet, kann dazu führen, dass der Benutzer von der Interaktion mit KI abhängig wird, schreibt die Ressource CNN mit einem Link zum OpenAI-Bericht.

Bildquelle: Andrew Neel/unsplash.com

Laut OpenAI, das am Donnerstag einen Sicherheitsbericht über die Verwendung des Advanced Voice Mode (AVM) für den ChatGPT-Dienst veröffentlichte, der einer kleinen Anzahl von ChatGPT Plus-Abonnenten zur Verfügung steht, klingt die Stimme des ChatGPT-Chatbots im AVM-Modus sehr realistisch. Der Chatbot reagiert in Echtzeit, kann sich an Unterbrechungen anpassen und reproduziert die Geräusche, die Menschen während eines Gesprächs machen, zum Beispiel Lachen oder Grunzen. Er kann den emotionalen Zustand des Gesprächspartners auch anhand des Tonfalls seiner Stimme beurteilen.

Nachdem OpenAI dieses Feature in seinem multimodalen generativen KI-Modell GPT-4o angekündigt hatte, begann man, es mit dem digitalen KI-Assistenten aus dem Film „Her“ von 2013 zu vergleichen, in den sich die Hauptfigur verliebt.

Offenbar ist OpenAI besorgt darüber, dass sich die fiktive Geschichte als realitätsnah erwiesen hat, nachdem Benutzer beobachtet wurden, die mit ChatGPT im Sprachmodus in einer Sprache sprechen „gemeinsame Verbindungen zum Ausdruck bringen“ mit einem Kommunikationstool.

Am Ende „Benutzer können mit KI soziale Beziehungen aufbauen und so ihr Bedürfnis nach menschlicher Interaktion verringern – was möglicherweise einsamen Menschen zugute kommt, sich aber möglicherweise auch auf gesunde Beziehungen auswirkt.“ bemerkte OpenAI. Der Bericht stellte außerdem fest, dass der Empfang von Informationen von einem Bot mit einer menschlich klingenden Stimme den Benutzer angesichts der Fehlbarkeit der KI möglicherweise vertrauenswürdiger macht, als er sein sollte.

Siehe auch  9 Möglichkeiten, bei Dollar Tree mit ChatGPT Geld zu sparen

Laut OpenAI kann sich die Art und Weise, wie Benutzer mit ChatGPT im Sprachmodus interagieren, im Laufe der Zeit auch darauf auswirken, was bei sozialen Interaktionen als normal angesehen wird. „Unsere Modelle sind respektvoll und ermöglichen es Benutzern, jederzeit zu unterbrechen und das Mikrofon zu übernehmen, was zwar in der KI erwartet wird, bei menschlichen Interaktionen jedoch nicht die Norm ist.“ im Bericht des Unternehmens berichtet.

Gleichzeitig betonte OpenAI, dass es bestrebt sei, KI zu schaffen „sicher“ und plant, das Potenzial weiter zu erkunden „emotionale Abhängigkeit“ Benutzer von den vorgeschlagenen KI-Lösungen.

Wenn Sie einen Fehler bemerken, wählen Sie ihn mit der Maus aus und drücken Sie STRG+ENTER.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein