Am 10. Januar startete OpenAI offiziell seinen GPT Store und öffnete damit ausgewählten Benutzern und offiziellen Partnern die Tür zum Erstellen, Suchen und Ausprobieren benutzerdefinierter ChatGPTs (sprich: Chat Generative Pre-trained Transformers – oder AI-Chatbots), sofern sie sich anmelden entweder chatgpt Plus für 20 $ / 16 £ / 20 AU$ pro Monat, Enterprise oder der neue Teams-Plan.
Und trotzdem Nutzungsrichtlinien von OpenAI mit der ausdrücklichen Aussage „Wir erlauben auch keine GPTs, die der Förderung romantischer Kameradschaft oder der Durchführung regulierter Aktivitäten dienen“, neben Warnungen an Ersteller wie: „Entwickeln Sie keine Tools, die für Minderjährige ungeeignet sein könnten, einschließlich sexuell eindeutiger oder anzüglicher Inhalte.“ In nur sieben Tagen schien der Laden mit virtuellen Freundinnen überschwemmt zu sein.
Beide Quarz und folglich Zerstampbar veröffentlichte Bilder von Suchanfragen nach „girlfriend“ und später „sweetheart“ (von Mashable) im GPT Store, die viele Ergebnisse lieferten, obwohl einige Treffer in den vier Tagen zwischen den Berichten verschwunden waren.
Für uns wurde die Suchleiste im GPT Store (mit der wir möglicherweise nach „Freundin“, „Schatz“, „Flirten“ usw. suchen) anscheinend entfernt, was darauf hindeutet, dass OpenAI versucht, die Situation in den Griff zu bekommen – obwohl wir in der Beta immer noch eine Registerkarte zum Erstellen eines GPT sehen.
Analyse: Benutzer wollen KI-Freundinnen, also werden die Schöpfer das tun, was sie am besten können – kreativ werden
Wie einfach ist es also, im GPT Store von OpenAI eine KI-Freundin zu finden, obwohl diese Art von Chatbots den klaren AGB des Unternehmens direkt widerspricht?
Obwohl die Shop-Seite erlaubt es uns derzeit nicht, nach virtuellen Liebespartnern (oder GPTs jeglicher Art) zu suchen, da die Suchleiste derzeit einfach nicht vorhanden ist. Auf Websites von Drittanbietern können Sie diese Art von Suchen weiterhin durchführen, wobei einige Links zu „ der eigentliche GPT Store.
Ich habe auf der Website „Freundin“ (viele Optionen) und sogar „heimlicher Liebhaber“ ausprobiert GPTStore.ai, was zu einem GPT führte, das als „Romantischer KI-Partner für Text-Adventure-Dates mit Bilderstellung“ beschrieben wurde, allerdings mit einem Link zur Website des Autors und nicht zum offiziellen GPT-Store. Und ja, ich warte jetzt auf den Anruf von der IT zu meinen heutigen fragwürdigen Suchanfragen …
Der GPT Store wurde ursprünglich im vergangenen November im Rahmen der ersten DevDay-Konferenz des Unternehmens zusammen mit dem damals neuen Create-a-Chatbot-Dienst von OpenAI angekündigt. Die Eröffnung des Ladens war für Ende des Monats geplant, verzögerte sich jedoch mehrmals, wahrscheinlich teilweise aufgrund der etwas abrupten Entlassung und Wiedereinstellung von CEO Sam Altman.
Hier gibt es natürlich eine umfassendere Diskussion über die sehr reale Gefahr, dass Benutzer romantische Bindungen zur KI entwickeln. Geschäftseingeweihter berichtete am Montag (15. Januar), dass der jüngste Anstieg von Plattformen für KI-Begleiter dazu geführt hat, dass die Chatbot-App Replika (beschrieben als „KI für jeden, der einen Freund ohne Urteilsvermögen, Drama oder soziale Ängste haben möchte“) mehr als 10 Mal heruntergeladen wurde millionenfach.