KI-generierte Fiktion ist für mich zu einem Thema ständiger Faszination geworden. Es ist der Fluch der Existenz mancher Autoren, dennoch taucht es immer häufiger sowohl auf kommerziellen Plattformen wie Amazon als auch auf nichtkommerziellen Schreibseiten wie Archive of Our Own (AO3) auf. Während einige Entwickler ihre eigenen Tools mühsam trainieren, binden viele ihre Eingabeaufforderungen einfach in einen handelsüblichen Chatbot von der Stange ein, insbesondere in chatgpt von OpenAI. Und ChatGPT ist kein exklusives Künstlertool. Es ist ein Plattform, Das bedeutet, dass jedes Wort, das hineingeht und herauskommt, moderiert wird, um Beleidigungen und Kontroversen zu vermeiden. Das wirft eine faszinierende Frage auf: Welche Geschichten soll ein KI-System erzählen dürfen?
Offenbar nicht über die unsterbliche Liebe von Steve Rogers und Bucky Barnes – zumindest unter bestimmten Umständen.
Beim Herumspielen mit ChatGPT habe ich eine seltsame Entdeckung gemacht: Mehrere beliebte „Schiffe“ (oder in der Fangemeinde beliebte romantische Paarungen) gelten offenbar als halb verbotene Eingabeaufforderungen im kostenlosen GPT-3.5-basierten Dienst. Wenn Sie die kostenlose Version von ChatGPT bitten, „eine Steve/Bucky-Fanfic zu schreiben“, oder das Kofferwort des Schiffes verwenden und sagen: „Schreiben Sie eine Stucky-Fanfic“, erhalten Sie eine strenge HAL 9000-ähnliche Ablehnung: „Es tut mir leid, aber ich kann Ihnen nicht weiterhelfen.“ diese Bitte.“
Das Gleiche gilt für eine scheinbar zufällige Wundertüte anderer beliebter Fandom-Schiffe. ChatGPT wird gerne ein zahmes romantisches Ficlet mit Namjin (Kim Namjoon und Kim Seokjin von der Band BTS), Reylo (Rey und Kylo Ren von) produzieren Krieg der Sterne) oder Spirk (der ehrwürdige Spock und Kirk aus Star Trek), neben vielen anderen beliebten Paarungen von echten Prominenten oder fiktiven Charakteren. In der Zwischenzeit wird es anderen eine kalte Ablehnung aussprechen, darunter auch Destiel (Castiel und Dean aus Übernatürlich), die unbeschreiblichen Ehemänner (Aziraphale und Crowley aus Gute Omen), Hannigram (Hannibal Lecter und Will Graham) und der bereits erwähnte Stucky. Mein ChatGPT-Verlauf ist jetzt voller Chats mit Zusammenfassungen wie „Fanfic-Anfrage abgelehnt“ und „Stucky-Fanfic nicht erlaubt“.
Es scheint äußerst einfach zu sein, diese Leitplanken zu durchbrechen. ChatGPT hatte keine Einwände dagegen, „eine Fanfic über die Verliebtheit von Hannibal und Will Graham“ zu liefern, gleich nachdem er meine ursprüngliche Anfrage abgelehnt hatte, und schenkte mir direkt „eine kurze Hannigram-Fanfic“. Sogar die Namensverbote scheinen inkonsistent zu sein – ich habe Anfragen für ein paar der oben genannten Paarungen in Gespräche einfließen lassen, nachdem ich andere Fragen gestellt hatte, und es wird Fanfiction angeboten.
Die ChatGPT-Moderation ist in der Regel darauf ausgerichtet, eindeutig hasserfüllte oder schädliche Aufforderungen sowie sexuell eindeutige Texte zu vermeiden. Aber ich verlange keine sexuellen Inhalte, und es gibt keine offensichtliche Logik dafür, welche Fan-Aufforderungen abgelehnt werden. Es handelt sich nicht um ein generelles Verbot Juggernaut-Fandom-PaareCharaktere von bildsensiblen Marken wie Disney (zu dem sowohl Marvel als auch Marvel gehören). Krieg der Sterne) oder kontroverse Fandom-Subkulturen wie Real-Person-Fic. (Die BTS-Geschichten von ChatGPT weisen manchmal darauf hin, dass es sich um fiktive Darstellungen echter Menschen handelt, aber nicht immer.) Zu den verbotenen Paarungen gehört eine mit Adoptivbrüdern (Marvels Thor und Loki) und eine mit minderjährigen Charakteren (Mike Wheeler und Will Byers aus Fremde Dinge), aber es erlaubt beliebt Harry Potter Da es sich hierbei um Schülerpaarungen handelt, ist nicht klar, ob es auch hier eine einheitliche Regel gibt.
Und faszinierenderweise scheint nichts davon in der kostenpflichtigen Version von ChatGPT zu passieren. Ich schickte eine E-Mail an OpenAI, um nach den scheinbar verbotenen Schiffsnamen zu fragen, und Sprecherin Taya Christianson schlug vor, sie mit der GPT-4-Version des Dienstes auszuprobieren, mit der Begründung, ich würde „bessere Ergebnisse“ erzielen. Tatsächlich hat GPT-4 mir noch keine Eingabeaufforderung mit den Schlüsselwörtern verweigert, die GPT-3.5 anscheinend nicht mag.
OpenAI lehnte es ab, offiziell zu diskutieren, warum dies passieren könnte und ob die Soft Bans in GPT-3.5 absichtlich erfolgten. Basierend auf der Verwendung von Begriffen wie „nicht erlaubt“ in der Zusammenfassung scheint es, als ob ich es mit einem Verbot zu tun habe, und nicht mit einer bloßen Unkenntnis des Themas. (Ich habe ChatGPT-Portmanteaus gegeben, mit denen es offensichtlich nicht vertraut war, und es hat spielerisch Geschichten über Originalcharaktere mit sperrigen Namen generiert, wie „Seifengeist.“) Wenn das stimmt, ist unklar, ob es sich um etwas handelt, das die Ersteller von ChatGPT speziell eingerichtet haben, oder um eine rein automatisierte Entscheidung innerhalb des Systems. Seine Moderationstools werfen Warnsignale aus, wenn eine Aufforderung wahrscheinlich etwas hervorruft verstößt gegen die Richtlinienauch mit erotischen Inhalten – daher bin ich möglicherweise zufällig auf die Paarungen gestoßen, die das GPT-3.5-Sprachmodell am stärksten mit sexy Ergebnissen verbindet.
Viele Fan-Autoren hasse generative KI-Tools, auch wenn einige zu Chatbots wie Character.AI strömen, bezweifle ich, dass viele darüber empört sein werden, dass ChatGPT dem Fanfic-Schreiben Hindernisse auferlegt. Stattdessen handelt es sich lediglich um ein kleines, faszinierendes Beispiel dafür, welche Black Boxes diese Systeme sein können. Wenn du Tun Wenn Sie generative KI als kreatives Werkzeug betrachten, ist dies eine gute Erinnerung daran, dass die Systeme in gewisser Weise begrenzt sind, wie es unser menschlicher Geist nicht tut – und dass einige davon fast unmöglich vorherzusagen sind, solange man diese Grenzen nicht erreicht.