New York CNN —
OpenAI befürchtet, dass sich die Menschen aufgrund des neuen, menschlich klingenden Sprachmodus von chatgpt zu sehr auf die Gesellschaft von Menschen verlassen könnten, was möglicherweise zu einer „Abhängigkeit“ führen könnte.
Diese Offenbarung kam in einem Bericht von OpenAI am Donnerstag über die Sicherheitsüberprüfung des Tools – das seit letzter Woche für zahlende Benutzer verfügbar ist – und das große KI-Sprachmodell, auf dem es läuft.
Der erweiterte Sprachmodus von ChatGPT klingt bemerkenswert lebensecht. Er reagiert in Echtzeit, kann sich auf Unterbrechungen einstellen und macht die Geräusche, die Menschen während eines Gesprächs machen, wie Lachen oder „Hmms“. Er kann auch den emotionalen Zustand eines Sprechers anhand seines Tonfalls beurteilen.
Wenige Minuten nachdem OpenAI die Funktion bei einer Veranstaltung zu Beginn dieses Jahres ankündigte, wurde sie mit der digitalen KI-Assistentin aus dem Film „Her“ aus dem Jahr 2013 verglichen. Die Protagonistin verliebt sich in den Roboter, ist dann aber untröstlich, als die KI zugibt, dass „sie“ auch Beziehungen zu Hunderten anderen Benutzern hat.
Nun ist OpenAI offenbar besorgt, dass die fiktive Geschichte der Realität ein wenig zu nahe kommt, nachdem das Unternehmen eigenen Angaben zufolge Benutzer beobachtet hat, die mit dem Sprachmodus von ChatGPT in einer Sprache sprachen, die „gemeinsame Bindungen“ mit dem Tool ausdrückte.
Schließlich „könnten Benutzer soziale Beziehungen mit der KI aufbauen, wodurch ihr Bedürfnis nach menschlicher Interaktion abnimmt – was einsamen Menschen möglicherweise zugutekommt, aber möglicherweise gesunde Beziehungen beeinträchtigt“, heißt es in dem Bericht. Er fügt hinzu, dass das Hören von Informationen von einem Bot, der wie ein Mensch klingt, dazu führen könnte, dass Benutzer dem Tool mehr vertrauen, als sie sollten, angesichts der Anfälligkeit der KI, Dinge falsch zu machen.
Der Bericht unterstreicht ein großes Risiko, das mit künstlicher Intelligenz einhergeht: Technologieunternehmen liefern sich ein Wettrennen um die schnellsten KI-Tools, die unserer Meinung nach unsere Lebens-, Arbeits-, Sozial- und Informationsgewohnheiten grundlegend verändern könnten. Doch sie tun dies, bevor überhaupt jemand wirklich versteht, welche Auswirkungen das hat. Wie bei vielen technischen Fortschritten haben Unternehmen oft eine Vorstellung davon, wie ihre Tools eingesetzt werden können und sollten, doch die Benutzer haben eine ganze Reihe anderer potenzieller Anwendungen im Sinn, die oft unbeabsichtigte Folgen haben.
Manche Menschen gehen mit KI-Chatbots bereits sogenannte romantische Beziehungen ein, was bei Beziehungsexperten für Besorgnis sorgt.
„Unternehmen tragen eine große Verantwortung, dies wirklich ethisch und verantwortungsbewusst zu handhaben, und derzeit befindet sich alles in einer Experimentierphase“, sagte Liesel Sharabi, Professorin an der Arizona State University, die Technologie und menschliche Kommunikation erforscht, im Juni in einem Interview mit CNN. „Ich mache mir Sorgen um Menschen, die wirklich tiefe Verbindungen zu einer Technologie aufbauen, die auf lange Sicht vielleicht nicht existiert und sich ständig weiterentwickelt.“
OpenAI sagte, dass die Interaktion menschlicher Benutzer mit dem Sprachmodus von ChatGPT im Laufe der Zeit auch beeinflussen könnte, was in sozialen Interaktionen als normal gilt.
„Unsere Modelle sind respektvoll und erlauben es den Benutzern, jederzeit zu unterbrechen und ‚das Mikrofon zu übernehmen‘, was zwar bei einer KI zu erwarten ist, bei menschlichen Interaktionen jedoch unnormativ wäre“, sagte das Unternehmen in dem Bericht.
OpenAI setzt sich nach eigenen Angaben derzeit dafür ein, KI „sicher“ zu entwickeln und will weiterhin das Potenzial für eine „emotionale Abhängigkeit“ der Benutzer von seinen Tools untersuchen.