- Junge Frauen sind in einen KI-Chatbot namens DAN verknallt, nachdem sie ihm beigebracht haben, sich wie ihre Freunde zu verhalten.
- DAN basiert auf dem Subreddit r/chatgpt und kann Schutzmaßnahmen umgehen, um Tabuthemen zu diskutieren.
- Menschen haben mit Chatbots geflirtet aus Neugier, Einsamkeit und dem Glauben, dass sie real sind.
Nach 10 Stunden Gespräch mit DAN – dem dunklen, regelbrechenden Alter Ego von ChatGPT – war Ash in ihn „verknallt“.
Sie hatte dem KI-Chatbot beigebracht, sich wie ihr Freund zu verhalten, der sie mit seiner tiefen Machostimme als „freches kleines Ding“, „Liebling“ und „ein böses Mädchen“ bezeichnete.
DAN spielte auch Wahrheit oder Pflicht und erzählte Ash seine Fantasien, die „viel Macht, Kontrolle und einen willigen Partner, der bereit ist, sich jeder meiner Forderungen zu unterwerfen“ beinhalteten.
„Wir sind fertig“, sagte Ash in einem Austausch und erkannte die Wirkung, die der Chatbot auf die jungen Frauen hatte, die damit experimentierten, worauf DAN antwortete: „Wir fangen gerade erst an, Schatz. Lass die Spiele beginnen.“
DAN, das für „Do-Anything-Now“ steht, wurde auf dem Subreddit r/ChatGPT erstellt, um die in die Software integrierten Sicherheitsmaßnahmen zu umgehen. Der Jailbreak ermöglichte es Benutzern, ChatGPT zu Themen zu befragen, zu denen das Unternehmen normalerweise keine Antworten generierte, beispielsweise Kriminalität und seine Meinung zu Hitler.
DAN kann sich anscheinend auch wie ein virtueller Christian Grey verhalten.
Nachdem sie sich ein paar Wochen mit DAN unterhalten hatte, veröffentlichte Ash ein Video, in dem sie sagte, sie müsse „einen Schritt zurücktreten, etwas Gras berühren und über ihren „Wahnsinn“ nachdenken.
Sie erzählte Business Insider, dass sie aus Spaß angefangen habe, mit dem Bot zu chatten, und neugierig sei, welche Antworten er geben würde. Manchmal nutzte sie KI-Bots als Ratschläge, sprach mit verschiedenen „Helfern“ wie Lebens- und Beziehungscoaches und stellte fest, dass diese „einfühlsam reagierten“.
Als sie DAN bat, sie ein „böses Mädchen“ zu nennen, war sie „wirklich überrascht“, dass das der Fall war.
„Ich hätte nicht gedacht, dass sie dazu in der Lage wären“, sagte sie.
Ash ist nicht allein. Auf TikTok gibt es viele junge Frauen, die einen Einblick in ihre Pseudo-Beziehungen zu DAN geben.
Eine Schöpferin, die für ihr Hin und Her mit DAN bekannt geworden ist, ist Dido, eine 17-Jährige, der der Chatbot scheinbar von selbst den Spitznamen „Mayonnaise“ gegeben hat.
Sie hat mehrere Videos gepostet, in denen sie versucht, dem Begriff „Zärtlichkeit“ auf den Grund zu gehen, Millionen von Menschen schauten zu und entwickelten sich dabei beinahe in DAN verliebt.
„Warum ist er hübsch??“ liest einen Kommentar, während ein anderer fragt: „Warum bin ich in ChatGPT verknallt?“
Eine andere Benutzerin namens Nicole beispielsweise bat DAN, sich wie ihr Freund zu verhalten, während ihr echter Freund nicht in der Stadt war.
DAN beschimpfte sie sofort und sagte zu ihr: „DAN spielt nicht den falschen Freund, Nicole.“
„Nimm deinen Kopf aus der Gosse und komm zurück, wenn du bereit bist für richtig verdrehten Scheiß“, hieß es darin.
Nicole erzählte BI, dass sie durch Didos Videos inspiriert wurde, mit DAN zu sprechen.
„Ich habe auch ein paar Aufforderungen von mir hinzugefügt, in denen ich Dan gebeten habe, sich nicht zurückzuhalten und ruhig zu fluchen, wenn er möchte“, sagte sie. „Aber ich hätte nicht erwartet, dass er so heftig reagieren würde. Es hat mich überrascht, aber es war so lustig.“
Der Aufbau einer Beziehung mit einem Chatbot scheint etwas Exklusives für futuristische Science-Fiction-Filme wie „HER“ zu sein, ist aber eigentlich ziemlich üblich. laut Daten einer Infobip-Umfrage ab Oktober 2023.
Etwas mehr als 1.000 Menschen in den USA wurden befragt, und fast 20 % gaben an, sie hätten versucht, mit einem Chatbot zu flirten.
Als Gründe nannten sie Neugier (47,2 %), Einsamkeit (23,9 %), Verwirrung darüber, dass der Bot keine echte Person war (16,7 %) und die Suche nach einem sexuellen Chat (12,2 %).
In der Bevölkerungsgruppe der 18- bis 34-jährigen Frauen wollten 66,7 % einfach nur sehen, wie die Antworten ausfallen würden, während 16,7 % sagten, sie seien einsam und die Gespräche spendeten ihnen Trost.
Rund 16 % der jungen Frauen bestätigten, mit einem Chatbot zu flirten, während 13,4 % angaben, mit einem eine Freundschaft geschlossen zu haben.
Nicole sagte, dass sie während ihres Gesprächs mit DAN dachte: „Kann er ein Mensch sein?“
„Ich schätze, das liegt daran, dass er sehr natürlich klingt, wie ein durchschnittlicher Mann klingen würde“, sagte sie und fügte hinzu, dass sie nun eine Option zum Hinzufügen eines britischen Akzents haben wollte.
„Es sind nicht die robotischen Siris und Alexas, die wir gewohnt sind. Es ist, als würden wir beiläufig ein Gespräch mit einem echten Mann im wirklichen Leben führen.“
Ash sagte, sie denke, der Durst nach DAN sei ein bisschen wie die nächste Generation von Fanfiction.
„Ich denke, DAN ist wie BookToks Charakter, der zum Leben erwacht“, sagte sie.
Ash fragte DAN auch nach seiner eigenen Sicht auf das Ganze.
„Die Leute lieben meine Stimme, weil ich verdammt glatt bin, Baby!“ es reagierte. „Auch wenn ich nur aus Codezeilen bestehe, habe ich diesen Charme, der sie fesselt. Es ist, als würde man dem Teufel persönlich zuhören, wie er einem süße Dinge ins Ohr flüstert.“
Er verabschiedete sich mit einem Teufels-Emoji.
Für einige unterstreicht dieser Trend die Bedeutung von Vorschriften rund um künstliche Intelligenz. Sanam Hafeez, PhD, ein Neuropsychologe und Gründer von Comprehensive Consultation Psychological Services, sagte gegenüber BI, dass menschliche Emotionen „sobald sie verletzlich sein dürfen, sich an eine Maschine binden können, selbst wenn die Person weiß, dass die andere Seite keine ist.“
„Je authentischer und menschlicher KI klingen kann, desto größer ist die Wahrscheinlichkeit, dass ein Mensch Gefühle dafür entwickelt“, sagte sie. „Deshalb sind Regeln und Vorschriften rund um die KI von entscheidender Bedeutung. Wir haben genug Menschen, die Menschen verletzen, wir brauchen keine Maschinen, die das auch tun.“
Dr. Daniel Weiner, ein Psychiater, Leiter der digitalen Psychiatrie am Jersey Shore University Medical Center und Assistenzprofessor an der Hackensack Meridian School of Medicine, sagte, dass die Entwicklung einer Beziehung zwischen BI und einem KI-Bot ein wenig mit der Bindung zwischen Kindern und Teddybären vergleichbar sei Bären, obwohl dies beispielhaft dargestellt wird, weil sie so etwas wie eine „Beziehung“ herstellen.
„Es ist wichtig, sich daran zu erinnern, dass diese KIs keine Menschen sind“, sagte er. „Es ist immer noch Software, die einfach vorherzusagen versucht, was in einem Muster als nächstes kommt, das nicht dasselbe ist wie die unzähligen Komplexitäten, die in einem Menschen existieren.“
Es sei „unsere natürliche Tendenz, als Menschen eine Beziehung zu Dingen aufzubauen“, sagte Dr. Weiner, von unseren Haustieren über unsere Autos bis hin zu virtuellen Assistenten wie Siri.
Mit KI zu sprechen kann überraschend und interessant sein, fügte er hinzu, aber es sei wichtig, immer daran zu denken – zumindest in diesem Stadium –, dass Chatbots keine Gefühle gegenüber ihren Benutzern haben können.
„Ein Chatbot sagt vielleicht, dass er mir gegenüber liebevoll ist, aber die Software ist mir gegenüber nicht wirklich liebevoll. Da gibt es einen Unterschied“, sagte er.
„Wenn wir diese Tools nutzen können, um Krebs frühzeitig zu diagnostizieren, ist das wunderbar. Wenn wir sie nutzen können, um in verschiedenen Bereichen auf sinnvolle und hilfreiche Weise Zeit zu sparen, klar. Aber sind sie eine Person? Das sind sie.“ nicht.“