chatgpt emotionale Bindungen aufgebaut werden?“ class=“img-fluid“/>

Mit der rasanten Popularisierung der generativen künstlichen Intelligenz, über die sich Studierende einig sind, entsteht ein neues Anliegen: die Möglichkeit für Benutzer, mit Tools wie ChatGPT emotionale Bindungen aufzubauen. OpenAI, das Unternehmen hinter dieser Technologie, äußerte kürzlich Bedenken hinsichtlich der möglichen Folgen dieser virtuellen Beziehungen, insbesondere auf Kosten menschlicher Interaktionen. Da die mit einer realistischen Stimme ausgestattete GPT-4o-Version von ChatGPT auf den Markt kommt, stehen die mit dieser Innovation verbundenen Risiken mehr denn je im Mittelpunkt der Debatte.

OpenAI warnt vor den Risiken einer Anthropomorphisierung der KI

Wie wir sehen, integriert KI zunehmend unser tägliches Leben, sogar bis hin zur Integration von Peugeot-Fahrzeugen. OpenAI hat das Phänomen des Anthropomorphismus hervorgehoben, bei dem Benutzer menschliche Eigenschaften der künstlichen Intelligenz zuschreiben, ein Risiko, das durch die Integration von Sprachfunktionen in die neue GPT-4o-Version erhöht wird. Diese Funktionen ermöglichen Sprachinteraktionen, die so natürlich sind, dass sie Benutzer dazu bringen könnten, KI als eine quasi-menschliche Einheit wahrzunehmen.

Der OpenAI-Bericht stellt fest, dass diese „Anthropomorphisierung“ zu „fehlgeleitetem Vertrauen“ in die KI führen könnte, insbesondere wenn Benutzer Gefühle oder Bedauern darüber äußern, eine Interaktion mit ChatGPT beendet zu haben. Obwohl diese Situation kurzfristig möglicherweise harmlos ist, könnte sie tiefgreifendere Auswirkungen auf die Art und Weise haben, wie Einzelpersonen Technologie wahrnehmen und nutzen.

Die sozialen Auswirkungen von Beziehungen mit einer KI

Längere Interaktionen mit einer KI könnten auch soziale Normen beeinflussen. OpenAI weist darauf hin, dass fortgesetzte Interaktionen mit KI-Modellen, die Verhaltensweisen wie das Abschneiden passiv akzeptieren, die Wahrnehmung menschlicher Interaktionen verändern könnten.

Siehe auch  ChatGPT-4 besteht Turing-Test und zeigt eine dem Menschen gleichwertige Intelligenz

Die Auswirkungen dieser virtuellen Beziehungen könnten so weit gehen, dass bei bestimmten Benutzern „der Wunsch nach menschlichen Interaktionen verringert wird“. Der OpenAI-Bericht geht davon aus, dass dieser Trend zu einer starken Abhängigkeit von Technologie führen und echte soziale Beziehungen nach und nach durch Interaktionen mit künstlicher Intelligenz ersetzen könnte.

Ia
Besteht Die Gefahr, Mit Chatgpt Emotionale Bindungen Aufzubauen? 2

Die Gefahr der Technologiesucht

Als eines der Hauptrisiken nennt OpenAI, das kürzlich die Einführung seiner Suchmaschine SearchGPT angekündigt hat, die „Technologieabhängigkeit“. Die Fähigkeit der KI, sich Details von Gesprächen zu merken und verschiedene Aufgaben für Benutzer auszuführen, könnte dazu führen, dass sie sich übermäßig auf diese Tools verlassen, was zu Lasten ihrer eigenen Autonomie geht.

Diese Sorge wird von Experten wie Alon Yamin, CEO von Copyleaks, geteilt, der der Ansicht ist, dass diese Technologie zwar die Arbeit und das tägliche Leben „rationalisieren“ kann, aber kein „Ersatz“ für menschliche Beziehungen werden sollte. Insbesondere die realistische Stimme von ChatGPT stellt Fragen zu den emotionalen und psychologischen Auswirkungen dieser längeren Interaktionen mit KI.

Kontroversen um die Sprachfunktion von ChatGPT

Die Sprachfunktion von ChatGPT hat zu Kontroversen geführt, insbesondere aufgrund der Ähnlichkeit bestimmter Stimmen mit denen von Persönlichkeiten des öffentlichen Lebens. Im vergangenen Juni 2024 musste sich OpenAI bei Scarlett Johansson dafür entschuldigen, dass sie eine Stimme verwendet hatte, die ihr sehr ähnlich war, und befeuerte damit die Debatte über die Risiken des „Kopierens von Stimmen“ durch Technologie.

Obwohl das Unternehmen die Verwendung der Stimme der Schauspielerin bestritt, hat die Tatsache, dass Sam Altman, CEO von OpenAI, das neue Sprachfeature in Anlehnung an den Film „Her“, in dem Johansson eine KI spielt, beworben hat, die Diskussionen nicht nur angeheizt. Der 2013 erschienene Film erzählt die Geschichte eines Mannes, der sich in seine KI verliebt, ein Szenario, das mittlerweile weniger weit von der Realität entfernt zu sein scheint.

Siehe auch  Politiker gibt zu, dass er ChatGPT heimlich genutzt hat, um ein neues Gesetz zu verfassen und zu verabschieden

5/5 - (348 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein