In einem mit Spannung erwarteten Schritt hat der Entwickler hinter chatgpt, OpenAI, letzte Woche seinen GPT Store vorgestellt. Der vor zwei Monaten erstmals vorgestellte Marktplatz bietet Benutzern eine Plattform zum Teilen und Zugreifen auf maßgeschneiderte KI-Anwendungen unter Verwendung der fortschrittlichen Technologie von OpenAI, allgemein bekannt als „GPTs“.
Trotz der Aufregung rund um den Start ergab eine aktuelle Analyse von Quartz, dass eine unerwartete Welle romantischer KI-Chatbots den neu gegründeten Markt überschwemmt. Eine einfache Suche nach dem Begriff „Freundin“ ergab bemerkenswerte acht Beispiele solcher virtuellen Begleiter mit Namen wie „Korean Girlfriend“, „Virtual Sweetheart“, „Deine Freundin Scarlett“ und „Deine KI-Freundin Tsu“.
OpenAI verbietet in seiner Nutzungsrichtlinie für den GPT-Store ausdrücklich die Erstellung und Verbreitung von GPTs, die der „Förderung romantischer Kameradschaft oder der Durchführung regulierter Aktivitäten“ dienen. Das Unternehmen behauptet, dass diese Richtlinien automatisch bei der Einreichung durchgesetzt oder rückwirkend angewendet werden können.
Die zunehmende Beliebtheit von Plattformen, die sich der KI-Begleitung widmen, war im vergangenen Jahr offensichtlich, wobei die Chatbot-App Replika als bemerkenswertes Beispiel hervorsticht. Replika wird als „KI für jeden vermarktet, der sich einen Freund ohne Urteilsvermögen, Drama oder soziale Ängste wünscht“ und hat über 10 Millionen Downloads angehäuft. Insbesondere haben einige Benutzer berichtet, dass sie ernsthafte emotionale Bindungen aufgebaut haben, und in einigen Fällen gaben sie an, sich in ihre KI-Gefährten verliebt zu haben.
Auf die Frage nach der Meinung von ChatGPT zu diesem Thema schrieb das Unternehmen Folgendes: „Das Konzept der „KI-Freundinnen“ wirft ethische und soziale Überlegungen auf. Während die Idee, dass künstliche Intelligenz Kameradschaft bietet oder Beziehungen simuliert, für manche faszinierend sein mag, wirft sie auch Bedenken hinsichtlich der Möglichkeit einer Objektivierung und der Auswirkungen auf echte menschliche Beziehungen auf. Es ist wichtig, die Entwicklung und Nutzung solcher Anwendungen unter sorgfältiger Berücksichtigung ethischer Richtlinien und der möglichen Folgen für den Einzelnen und die Gesellschaft anzugehen.“
Lesen Sie auch
Der ChatGPT-Hersteller OpenAI überarbeitet die KI-Nutzungsrichtlinie, um „Militär- und Kriegsführungsanwendungen“ zu ermöglichen
„Ich wünschte, ich könnte ChatGPT sagen“: OpenAI-CEO Sam Altman enthüllt seine am häufigsten verwendete App im Podcast von Bill Gates