chatgpt un ejemplo de esta tendencia. (Warner Bros.Pictures)” height=”1080″ width=”1920″ class=” lazyload” src=”https://www.infobae.com/new-resizer/q-v4ojKLMtNwgiHo6614QEXjR2U=/arc-anglerfish-arc2-prod-infobae/public/NN4TTXSAPVCVLNWZEHLDBESKSU.jpg” data-amp-auto-lightbox-disable=”true” data-hero=”true” layout=”responsive”/>
Künstliche Intelligenz bewegt sich in Richtung Interaktionen, die menschlichen emotionalen Beziehungen ähneln, wobei ChatGPT ein Beispiel für diesen Trend ist. (Warner Bros. Bilder)

Künstliche Intelligenz (IA) verändert die Art und Weise, wie Menschen interagieren, und hat dem Assistenten kürzlich Sprachfunktionen hinzugefügt ChatGPT von OpenAI ermöglicht es Benutzern, so etwas wie eine tiefe emotionale Beziehung zur Technologie zu erleben, wie im Film von 2013 dargestellt Ihrin der Hauptrolle Joaquin Phoenix. Obwohl die Konkurrenz von ChatGPT noch weit von der emotionalen Fähigkeit des digitalen Charakters des Films entfernt ist, führen Nutzer laut Aussage längere Gesprächsrunden mit dem Assistenten Kunsttechnik.

Benutzer verwenden ChatGPT für eine Vielzahl von Zwecken, vom Zeitvertreib bis hin zur Tätigkeit als Brainstorming-Partner. Der Assistent IA können eine ähnliche Rolle wie Menschen dabei spielen, Ideen neu zu formulieren, was besonders nützlich ist, wenn keine anderen Menschen in der Nähe sind.

Trotz gelegentlicher Mängel des Sprachassistenten, wie z. B. Schwierigkeiten in lauten Umgebungen und Pausen zwischen den Aussagen, wird die Sprachinteraktion als im Wesentlichen mühelos und sehr menschlich wahrgenommen.

Ein wachsendes Anliegen ist die Möglichkeit, auf dieser Grundlage tiefe persönliche Beziehungen zu diesen Teilnehmern aufzubauen IA. Obwohl die Interaktion mit ChatGPT Es ist nicht so intim wie die im Film dargestellten Beziehungen. IhrMenschen haben seit seiner Einführung im letzten Jahr Verbindungen mit dem Chatbot geknüpft.

Siehe auch  Tony Khan gibt zu, mit ChatGPT gespielt zu haben, um AEW zu buchen

Diese emotionalen Bindungen mit IA waren erfolgreich mit Chatbots, die von gehostet wurden Replikwas eine persönlichere Simulation eines Menschen ermöglicht als ChatGPT. Diese Abhängigkeit in einem Chatbot heißt „Der ELIZA-Effekt“, benannt nach einem Chatbot, der von erstellt wurde MIT in den 1960er Jahren, das bei den Benutzern starke emotionale Reaktionen hervorrief, obwohl sie wussten, dass es sich um ein Computerprogramm handelte.

Zusätzlich zu den emotionalen Bedenken gibt es auch Bedenken hinsichtlich der Privatsphäre künstliche Intelligenz, da das Teilen von sehr persönlichen Lebensgegenständen mit einem mit der Cloud verbundenen Gerät zu potenziellen Datenschutzproblemen führen kann. Entsprechend OpenAIWenn der Konversationsverlauf mit ChatGPT aktiviert ist, kann das Unternehmen Ihre Konversationen zum Trainieren zukünftiger Chat-Modelle verwenden. IA.

Die Gesellschaft nähert sich einer Zukunft, in der emotionales Wohlbefinden und KI miteinander verbunden sind und komplexe psychologische Fragen aufwerfen, die noch nicht vollständig verstanden sind. (Illustratives Bild Infobae)

In einem anderen Bericht von Die Washington Post, warnen Experten aus den Bereichen öffentliche Gesundheit und Informatik vor den ernsthaften Risiken einer Verknüpfung des Herzens mit Software. Da Bots in früheren Beziehungen erlebte Traumata auslösen können, ist der Mangel an ethischen Protokollen für Tools, die sich auf das emotionale Wohlbefinden der Benutzer auswirken, offensichtlich.

Dies deutet darauf hin, dass die Gesellschaft möglicherweise am Rande einer Zukunft steht, in der IA Es ist mit unserem emotionalen Wohlbefinden verknüpft. Die psychologischen Auswirkungen dieser tiefen Verbindungen, insbesondere ohne menschliche Interaktion, seien noch nicht vollständig verstanden, heißt es in den oben genannten Medien.

Siehe auch  ChatGPT weltweit geschwächt, Taylor Swift belastet Ticketmaster, das ist die Zusammenfassung

Er ELIZA-Effektbenannt nach dem Computerprogramm ELIZA, das von erstellt wurde Joseph Weizenbaum drin MIT in den Jahren 1964–1966, bezieht sich auf die menschliche Tendenz, Interaktionen mit Technologie zu anthropomorphisieren und Computersystemen bei der Interaktion mit ihnen Absichten, Emotionen und Bewusstsein zuzuschreiben.

Die oben genannte Technologie war einer der ersten Chatbots und gab vor, ein Rogerianischer Psychotherapeut zu sein, der hauptsächlich Reflexion und offene Fragen nutzte, um mit Benutzern zu interagieren. Obwohl es sich um ein relativ einfaches Programm handelt, das auf vordefinierten Regeln basiert, empfanden viele Menschen, die mit ELIZA interagierten, sie als einfühlsam und in der Lage, ihre Probleme auf einer tieferen Ebene zu verstehen.

Dies führte zu Überlegungen darüber, wie Menschen mit Maschinen umgehen, und stellte die Frage, inwieweit Computersysteme menschliche Erfahrungen wirklich „verstehen“ oder „mitfühlen“ können. Er ELIZA-Effekt unterstreicht die Tendenz, Maschinen echtes Verständnis und Empathie zuzuschreiben, obwohl sie weder Emotionen noch Bewusstsein besitzen.

5/5 - (353 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein