Der menschliche Stimmmodus von chatgpt sei so realistisch, dass Menschen eine „emotionale Abhängigkeit“ davon entwickeln könnten, warnen die Entwickler.
OpenAI, der Entwickler von ChatGPT, hat Bedenken geäußert, dass bei den Benutzern eine emotionale Abhängigkeit vom kommenden Sprachmodus des Chatbots entstehen könnte.
Der ChatGPT-4o-Modus wird derzeit vor seiner Einführung auf seine Sicherheit analysiert.
Dadurch können Benutzer bis zu einem gewissen Grad ganz natürlich mit dem KI-Assistenten sprechen, als wäre es eine echte Person.
Obwohl dies für viele Benutzer sehr praktisch sein kann, besteht damit auch das Risiko einer emotionalen Abhängigkeit und eines „zunehmend fehlkalibrierten Vertrauens“ in ein KI-Modell, das durch Interaktionen mit einer bemerkenswert menschenähnlichen Stimme noch verstärkt werden könnte.
Eine Stimme, die in der Lage ist, über den Tonfall auch die Emotionen des Nutzers zu berücksichtigen.
Die Ergebnisse der Sicherheitsüberprüfung wurden diese Woche veröffentlicht und wiesen laut Wired auf Bedenken hinsichtlich einer Sprache hin, die ein Gefühl der gemeinsamen Verbundenheit zwischen Mensch und KI widerspiegelte.
In den Berichten heißt es: „Obwohl diese Fälle harmlos erscheinen, weisen sie darauf hin, dass weitere Untersuchungen erforderlich sind, um herauszufinden, wie sich diese Auswirkungen über längere Zeiträume manifestieren könnten.“
Es wurde auch darauf hingewiesen, dass die Abhängigkeit von der KI die Beziehungen zu anderen Menschen beeinträchtigen könnte.
In dem Papier heißt es: „Eine menschenähnliche Sozialisierung mit einem KI-Modell kann externe Effekte hervorrufen, die sich auf die Interaktionen zwischen Menschen auswirken.
„Benutzer könnten zum Beispiel soziale Beziehungen mit der KI aufbauen und so ihr Bedürfnis nach menschlicher Interaktion verringern – was möglicherweise einsamen Menschen zugutekommt, sich aber möglicherweise auch auf gesunde Beziehungen auswirkt.
„Eine längere Interaktion mit dem Modell könnte soziale Normen beeinflussen.
„Unsere Modelle sind beispielsweise respektvoll und erlauben es den Benutzern, jederzeit zu unterbrechen und ‚das Mikrofon zu übernehmen‘, was zwar bei einer KI zu erwarten ist, bei menschlichen Interaktionen jedoch kontraintuitiv wäre.“
Darüber hinaus wurde in der Untersuchung auch auf die Möglichkeit übermäßiger Zuversicht und Abhängigkeit hingewiesen.
Darin heißt es: „Die Fähigkeit, Aufgaben für den Benutzer zu erledigen und dabei auch wichtige Details zu speichern, sich daran zu erinnern und diese im Gespräch zu verwenden, schafft einerseits ein überzeugendes Produkterlebnis, birgt aber andererseits auch das Potenzial für übermäßige Verlässlichkeit und Abhängigkeit.“
Das Team hinter der Studie sagte, es würden weitere Arbeiten zum Potenzial für emotionale Abhängigkeit bei der sprachbasierten Version von ChatGPT durchgeführt.
Der Film erregte Anfang des Sommers große Aufmerksamkeit aufgrund der bemerkenswerten Ähnlichkeit der Stimme mit der Schauspielerin Scarlett Johansson.
Die 39-jährige Hollywood-Schauspielerin, die im Film „Her“ eine KI spielte, in die sich ihr Benutzer verliebt, lehnte das Angebot ab, der Assistentin von OpenAI ihre Stimme zu leihen.
Was ist ChatGPT?
ChatGPT ist ein neues Tool für künstliche Intelligenz
ChatGPT, das im November 2022 eingeführt wurde, wurde vom in San Francisco ansässigen Startup OpenAI, einem KI-Forschungsunternehmen, entwickelt.
Es ist Teil einer neuen Generation von KI-Systemen.
ChatGPT ist ein Sprachmodell, das Text erzeugen kann.
Die Maschine kann Konversation führen, auf Anfrage lesbaren Text generieren und Bilder und Videos produzieren, und zwar auf Grundlage der Erkenntnisse, die sie aus einer riesigen Datenbank mit digitalen Büchern, Online-Schriften und anderen Medien gewonnen hat.
ChatGPT funktioniert im Wesentlichen wie ein schriftlicher Dialog zwischen dem KI-System und der Person, die ihm Fragen stellt
GPT steht für Generative Pre-Trained Transformer und beschreibt den Modelltyp, der KI-generierte Inhalte erstellen kann.
Wenn Sie ihm beispielsweise eine Aufforderung erteilen, „ein kurzes Gedicht über Blumen zu schreiben“, wird auf Grundlage dieser Aufforderung ein Textblock erstellt.
ChatGPT kann auch Gespräche führen und sogar aus Dingen lernen, die Sie gesagt haben.
Es kann sehr komplizierte Eingabeaufforderungen verarbeiten und wird sogar von Unternehmen als Arbeitshilfe verwendet.
Beachten Sie jedoch, dass möglicherweise nicht immer die Wahrheit gesagt wird.
„ChatGPT ist unglaublich eingeschränkt, aber in einigen Dingen gut genug, um einen irreführenden Eindruck von Großartigkeit zu erwecken“, sagte Sam Altman, CEO von OpenAI, im Jahr 2022.
Obwohl das Endergebnis verdächtig nach ihr klingt, besteht Open AI-Chef Sam Altman darauf, dass ihre Stimme nicht geklont sei.
OpenAI ist nicht der einzige Anbieter, der das potenzielle Risiko von KI-Assistenten erkennt, die menschliche Interaktion nachahmen.
Google DeepMind veröffentlichte im April ein Papier, in dem die potenziellen ethischen Herausforderungen untersucht wurden, die durch leistungsfähigere KI-Assistenten entstehen.
Co-Autor Iason Gabriel, ein wissenschaftlicher Mitarbeiter bei Google DeepMind, sagte Verdrahtet Er meinte, dass die Fähigkeit von Chatbots, Sprache zu verwenden, „diesen Eindruck echter Intimität erweckt“, und sagte, dass ihm eine experimentelle Sprachschnittstelle für die KI von Google DeepMind besonders gefiel.
Er sagte: „Es gibt all diese Fragen zur emotionalen Verstrickung.“