Als Tori Mccun im Juni erfuhr, dass ihr Vater plötzlich gestorben war, schwächten Trauer und Stress ihre Entschlossenheit, eine Trauerrede zu schreiben, sagte sie. Trotz der Bedenken ihrer drei Schwestern wandte sich McCun an chatgpt.

Mccun, 31, Datenmanagement-Spezialistin bei Bloomberg, veranlasste den Textbot, Fragen über ihren Vater zu stellen, was Erinnerungen bei ihr und ihren Geschwistern hervorrief, die sie für einen Redeentwurf an ChatGPT zurückgab, sagte sie. Nach einigen Feinabstimmungen hielt McCun die Laudatio und erhielt eine begeisterte Reaktion.

Ihre Schwestern sind immer noch besorgt über die Entscheidung, ChatGPT zu verwenden, sagte McCun.

„Es ist für die Menschen schwer zu begreifen, dass es in einem so menschlichen Moment zu etwas so Unmenschlichem kommt“, sagte McCun, der in New York City lebt.

Die Meinungsverschiedenheit zwischen Mccun und ihren Geschwistern ist ein Beispiel für einen umfassenderen kulturellen Moment. Laut Experten für Technologie und Ethik, die mit ABC gesprochen haben, ist ChatGPT im vergangenen Jahr explodiert, und der Einsatz der Technologie hat Normen auf den Prüfstand gestellt und Fragen zur Bedeutung von Authentizität für einige emotionale Momente des Lebens aufgeworfen, wie zum Beispiel Eheversprechen, Entschuldigungen und Lobreden Nachricht.

In den kommenden Jahren könnte KI Konventionen rund um emotional aufgeladene Botschaften neu gestalten, sagten die Experten.

Generative KI, eine Kategorie digitaler Tools, die schriftliche oder andere Inhalte erstellen, hat seit der Veröffentlichung von ChatGPT vor einem Jahr stark zugenommen. Der Chatbot hat mittlerweile mehr als 100 Millionen wöchentliche Nutzer, gab OpenAI-CEO Sam Altman am Montag bekannt.

Sicherlich sind generative KI-Tools für das Internet zugänglich, es gibt nur wenige Schutzmaßnahmen, und Benutzer, die in sie Inhalte eingeben, einschließlich Details über geliebte Menschen, sind möglicherweise anfällig für falsche Informationen und Identitätsdiebstahl.

ChatGPT scannt Milliarden digitaler Texte und verwendet einen Algorithmus, um Wörter als Reaktion auf eine menschliche Eingabeaufforderung aneinanderzureihen. OpenAI, der Hersteller von ChatGPT, reagierte nicht sofort auf die Bitte von ABC News um einen Kommentar.

Siehe auch  Stellenangebote bei Amazon weisen auf ChatGPT-ähnliche Konversations-KI für Online-Shops hin

Die Verwendung von ChatGPT für vertrauliche Nachrichten hat gelegentlich Kontroversen ausgelöst. Im Februar entschuldigte sich die Vanderbilt University für die Verwendung von ChatGPT zum Verfassen einer E-Mail an Studenten über eine Massenerschießung an einer anderen Universität.

Beim Risikokapitalgeber Vinod Khosla erzählt Nachdem er letzten Monat auf X 600.000 Follower hatte, dass er ChatGPT genutzt hatte, um einen Rap-Song für die Hochzeit seiner Tochter zu schreiben, löste der Beitrag sowohl Lob als auch Spott aus.

Der Ausdruck „ChatGPT-Entschuldigung“ ist in den sozialen Medien zu einer Abkürzung für scheinbar unechte Äußerungen öffentlicher Reue geworden.

Die Personen, mit denen ABC News für diese Geschichte gesprochen hat und die sagten, sie hätten ChatGPT für diese Art von emotionalen Nachrichten verwendet, sagten, die Technologie habe es ihnen ermöglicht, die Angst zu überwinden, die durch eine leere Seite und die Erwartung von Beredsamkeit in Momenten mit hohem Druck entsteht. Startups haben maßgeschneiderte KI-Tools auf den Markt gebracht, die dabei helfen, intime Notizen wie Hochzeitsversprechen zu verfassen.

Melissa Buckley, Inhaberin eines Kosmetikunternehmens in Reading, Pennsylvania, sagte, sie habe ChatGPT letzten Monat genutzt, um beim Schreiben des Drehbuchs für ein dreiminütiges Video zu helfen, in dem sie ihrem Stiefsohn zu seiner Heirat gratuliert.

„Ich war damals sehr beschäftigt, weil wir unsere Büros umzogen“, sagte Buckley gegenüber ABC News. „Ich hatte einfach nicht die geistige Fähigkeit, mich hinzusetzen und darüber nachzudenken, was ich sagen wollte.“

Nachdem sie ChatGPT Einzelheiten über die Aufgabe und ihren Stiefsohn übermittelt hatte, sagte Buckley, das Tool habe eine KI-geschriebene Rede erstellt, aus der sie wichtige Punkte herausgegriffen und diese in ihren eigenen Worten rezitiert habe, sagte sie. Sie bemerkte, dass das Video gut aufgenommen wurde.

Siehe auch  Der Aufstieg und mögliche Fall von ChatGPT: Googles Gegenbewegung | von Sourabh Kumar Upadhyay | September 2023

„Es ist ein bisschen stigmahaft, dass ich es abgekürzt habe, aber es war wirklich keine Abkürzung“, sagte Buckley. „ChatGPT gibt Ihnen nur das, was Sie hineingesteckt haben. Wenn Sie es konkreter machen, bedeutet das, dass Sie sich persönlich die Zeit genommen haben, den Gedanken hineinzustecken.“

Andrea Lynch, die Kits zum Verfassen von Lobreden mit Ratschlägen für den Einsatz generativer KI verkauft, sagte, sie betrachte die Technologie eher als Hilfsmittel denn als Ersatz. Sie rät Kunden, den von der KI verfassten Entwurf an ihre eigenen Sprachmuster anzupassen.

„Mir ist klar geworden, dass es kein Ersatz für einen Menschen ist“, sagte Lynch gegenüber ABC News. „Ich denke, wenn jemand wirklich nach einer Möglichkeit sucht, ein Gefühl auszudrücken, und Schwierigkeiten hat, die richtigen Worte zu finden, insbesondere in Zeiten großer Emotionen, könnte er manchmal etwas Hilfe gebrauchen.“

Eine Studie legt jedoch nahe, dass der Einsatz von KI in persönlichen Nachrichten bei den Empfängern Skepsis hervorruft. Forscher der Bar-Ilan-Universität in Israel fanden heraus, dass der Einsatz von KI zur Unterstützung beim Schreiben von Entschuldigungen als weniger authentisch wahrgenommen wird und die Wahrscheinlichkeit verringert, dass dem Autor vergeben wird.

Die Forscher stellten den Teilnehmern ein Szenario vor, in dem ein Kollege, der eine andere Muttersprache spricht, KI-Tools wie Übersetzung oder Satzvervollständigung einsetzt, um beim Verfassen einer Entschuldigung zu helfen. Bei identischen Entschuldigungen glaubten Teilnehmer, denen mitgeteilt wurde, dass der Autor die KI-Tools verwendet hatte, weniger, dass dies echte Emotionen vermittelte.

Siehe auch  Neue ChatGPT-App für Linux macht KI zugänglicher

Omri Asscher, Mitautor der Studie, sagte, er vermute, dass die gleiche Wahrnehmung von Falschheit auch auf andere Botschaften wie Lobreden und Eheversprechen zutreffe.

„Die Maschinen gelten als weniger fähig, diese emotionale Arbeit zu leisten“, sagte Asscher. „Sie werden hinsichtlich ihrer moralischen Authentizität als fehlerhaft wahrgenommen.“

Unterschiedliche Meinungen über die Verwendung von ChatGPT für intime Nachrichten berühren eine Spannung zwischen zwei konkurrierenden Zielen, die damit erfüllt werden, sagte Alice MacLachlan, Philosophieprofessorin an der York University in Toronto, die sich auf die Ethik der Entschuldigung spezialisiert hat, gegenüber ABC News.

Von solchen Mitteilungen wird erwartet, dass sie aufrichtige Ausdrucksformen direkter Emotionen sind, aber auch sorgfältig ausgearbeitete Texte voller rhetorischer Schnörkel, sagte MacLachlan.

„Einerseits, wenn ich die KI bitte, eine Entschuldigung für mich zu schreiben, dann kommt das nicht aus meinem Herzen – es ist aus dem wirren Wortsalat eines generativen Sprachsammlers“, sagte MacLachlan. „Andererseits haben wir das Gefühl, dass eine Entschuldigung etwas ist, das wir erfinden. Wir wollen es gut machen.“

Letztlich könnte die generative KI die Art und Weise, wie wir vertrauliche Kommunikation betrachten, verändern, so wie sie Hochschulprofessoren dazu gebracht hat, zu überdenken, was sie aus studentischen Aufsätzen lernen, sagte MacLachlan.

Während die Verwendung dieser Tools für herzliche Reden zu Spaltungen zwischen geliebten Menschen führen könne, könne sie auch weniger erfahrenen Schriftstellern die Möglichkeit geben, ihre tiefsten Gefühle besser auszudrücken, fügte sie hinzu.

„Es ist nicht mehr klar, inwieweit wir verfasste Texte als Maßstab für etwas verwenden können, sei es ein Lernziel, eine Sinnesänderung oder eine Liebeserklärung“, sagte MacLachlan. „Aber mir gefällt die Idee, dass Sprache Macht hat und dass Macht gerechter verteilt werden könnte.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein