Mit der rasanten Popularisierung der generativen künstlichen Intelligenz, über die sich Studierende einig sind, entsteht ein neues Anliegen: die Möglichkeit für Benutzer, mit Tools wie ChatGPT emotionale Bindungen aufzubauen. OpenAI, das Unternehmen hinter dieser Technologie, äußerte kürzlich Bedenken hinsichtlich der möglichen Folgen dieser virtuellen Beziehungen, insbesondere auf Kosten menschlicher Interaktionen. Da die mit einer realistischen Stimme ausgestattete GPT-4o-Version von ChatGPT auf den Markt kommt, stehen die mit dieser Innovation verbundenen Risiken mehr denn je im Mittelpunkt der Debatte.
OpenAI warnt vor den Risiken einer Anthropomorphisierung der KI
Wie wir sehen, integriert KI zunehmend unser tägliches Leben, sogar bis hin zur Integration von Peugeot-Fahrzeugen. OpenAI hat das Phänomen des Anthropomorphismus hervorgehoben, bei dem Benutzer menschliche Eigenschaften der künstlichen Intelligenz zuschreiben, ein Risiko, das durch die Integration von Sprachfunktionen in die neue GPT-4o-Version erhöht wird. Diese Funktionen ermöglichen Sprachinteraktionen, die so natürlich sind, dass sie Benutzer dazu bringen könnten, KI als eine quasi-menschliche Einheit wahrzunehmen.
Der OpenAI-Bericht stellt fest, dass diese „Anthropomorphisierung“ zu „fehlgeleitetem Vertrauen“ in die KI führen könnte, insbesondere wenn Benutzer Gefühle oder Bedauern darüber äußern, eine Interaktion mit ChatGPT beendet zu haben. Obwohl diese Situation kurzfristig möglicherweise harmlos ist, könnte sie tiefgreifendere Auswirkungen auf die Art und Weise haben, wie Einzelpersonen Technologie wahrnehmen und nutzen.
Die sozialen Auswirkungen von Beziehungen mit einer KI
Längere Interaktionen mit einer KI könnten auch soziale Normen beeinflussen. OpenAI weist darauf hin, dass fortgesetzte Interaktionen mit KI-Modellen, die Verhaltensweisen wie das Abschneiden passiv akzeptieren, die Wahrnehmung menschlicher Interaktionen verändern könnten.
Die Auswirkungen dieser virtuellen Beziehungen könnten so weit gehen, dass bei bestimmten Benutzern „der Wunsch nach menschlichen Interaktionen verringert wird“. Der OpenAI-Bericht geht davon aus, dass dieser Trend zu einer starken Abhängigkeit von Technologie führen und echte soziale Beziehungen nach und nach durch Interaktionen mit künstlicher Intelligenz ersetzen könnte.
Die Gefahr der Technologiesucht
Als eines der Hauptrisiken nennt OpenAI, das kürzlich die Einführung seiner Suchmaschine SearchGPT angekündigt hat, die „Technologieabhängigkeit“. Die Fähigkeit der KI, sich Details von Gesprächen zu merken und verschiedene Aufgaben für Benutzer auszuführen, könnte dazu führen, dass sie sich übermäßig auf diese Tools verlassen, was zu Lasten ihrer eigenen Autonomie geht.
Diese Sorge wird von Experten wie Alon Yamin, CEO von Copyleaks, geteilt, der der Ansicht ist, dass diese Technologie zwar die Arbeit und das tägliche Leben „rationalisieren“ kann, aber kein „Ersatz“ für menschliche Beziehungen werden sollte. Insbesondere die realistische Stimme von ChatGPT stellt Fragen zu den emotionalen und psychologischen Auswirkungen dieser längeren Interaktionen mit KI.
Kontroversen um die Sprachfunktion von ChatGPT
Die Sprachfunktion von ChatGPT hat zu Kontroversen geführt, insbesondere aufgrund der Ähnlichkeit bestimmter Stimmen mit denen von Persönlichkeiten des öffentlichen Lebens. Im vergangenen Juni 2024 musste sich OpenAI bei Scarlett Johansson dafür entschuldigen, dass sie eine Stimme verwendet hatte, die ihr sehr ähnlich war, und befeuerte damit die Debatte über die Risiken des „Kopierens von Stimmen“ durch Technologie.
Obwohl das Unternehmen die Verwendung der Stimme der Schauspielerin bestritt, hat die Tatsache, dass Sam Altman, CEO von OpenAI, das neue Sprachfeature in Anlehnung an den Film „Her“, in dem Johansson eine KI spielt, beworben hat, die Diskussionen nicht nur angeheizt. Der 2013 erschienene Film erzählt die Geschichte eines Mannes, der sich in seine KI verliebt, ein Szenario, das mittlerweile weniger weit von der Realität entfernt zu sein scheint.