Start ChatGPT Lassen Sie nicht zu, dass ChatGPT so viel Fanfiction schreibt
 ChatGPT muss aufs College gehen.  Zahlt OpenAI?

Lassen Sie nicht zu, dass ChatGPT so viel Fanfiction schreibt

Der interessanteste Teil des neuen Vertrags der Hollywood-Autoren ist die KI-Klausel. Nachrichtenberichten zufolge erlaubt es den Studios ausdrücklich, große Sprachmodelle anhand von Skripten zu „trainieren“, die von Mitgliedern der Writers Guild geschrieben wurden. Die Vereinbarung impliziert, dass die Erlaubnis, einen LLM an den Werken eines Autors auszubilden, von Wert ist. Daraus folgt, dass das Recht vom Autor erworben und nicht einfach genommen werden muss.

Das bringt uns zu der Urheberrechtsverletzungsklage, die letzte Woche von führenden Mitgliedern der Authors Guild gegen OpenAI, das Unternehmen hinter GPT-3.4 und GPT4, eingereicht wurde (weitere sind in Vorbereitung). Obwohl die Beschwerde mehrere Verstöße auflistet, lassen sich die wichtigsten auf zwei beschränken: Erstens, dass OpenAI die Urheberrechte der Autoren verletzt hat, indem es seine Programme auf gescannte Kopien veröffentlichter Werke trainiert hat; und zweitens, dass OpenAI zu Verstößen durch andere beigetragen hat, indem es Benutzern ermöglicht hat, Fanfiction über Steroide zu erstellen.

Da ich selbst Schriftsteller bin und einige der Kläger kenne, habe ich Mitgefühl. Als langjähriger Dozent für geistiges Eigentum dürfte der Anspruch auf Ausbildung jedoch nur geringe Aussichten auf Erfolg haben.

Der Standpunkt der Autorengilde ist, dass die Materialien, auf denen eine KI trainiert wird, einen Wert haben. Ich stimme zu; Das gilt offenbar auch für Hollywood. Eine KI kann keine heimischen Krimis erzeugen, wenn sie nie heimische Krimis liest.

Die Gerichte werden jedoch wahrscheinlich entscheiden, dass das Ergebnis durch die Entscheidung des US-Berufungsgerichts für den zweiten Bezirk aus dem Jahr 2015 bestimmt wird, in der festgestellt wurde, dass google durch die „Fair Use“-Doktrin geschützt war, als es urheberrechtlich geschützte Werke in seine Datenbank scannte Dies liegt zum großen Teil daran, dass nur Ausschnitte für Benutzer generiert wurden, die versuchten, die Texte zu durchsuchen. Ich bin mir nicht sicher, ob das Gericht Recht hatte, aber es wird ein schwieriger Präzedenzfall sein, den man umgehen kann.

Siehe auch  Von North Dakota und UND bis ChatGPT

Das bringt uns zum zweiten Anspruch des Klägers.

Hier denke ich, dass die Kläger Recht haben. Wenn chatgpt einen detaillierten Entwurf für ein Game of Thrones-Prequel mit dem attraktiven Titel „Dawn of the Direwolves“ unter Verwendung der Charaktere und Schauplätze von George RR Martin erstellen kann – dann ist das nichts, wenn das kein rechtsverletzendes Werk ist.

Die Entwickler werden argumentieren, dass sie lediglich ein Tool erstellt haben und nicht dafür verantwortlich sind, wenn Fans es missbrauchen. Und da liegt natürlich die Schwierigkeit für Autoren. Niemand will die Leser verklagen. Die meisten populären Romanautoren tolerieren Fanfiction, weil sie die Zielgruppe aufgeregt und erwartungsvoll hält, während der Autor darum kämpft, das nächste Buch zu produzieren. Fanfiction ist größtenteils kein Wettbewerb; seine Existenz beweist die Popularität des Autors.

All dies setzt jedoch voraus, dass die Fanfiction von Fans produziert wird – von Menschen, die nicht nur aufgeregt und energiegeladen sind, sondern auch in einem, wie wir es nennen würden, menschlichen Tempo arbeiten. Den Beweis dafür, dass wir diese Welt verlassen, finden Sie in der jüngsten Ankündigung von Amazon, dass „Autoren“ von selbst veröffentlichten Büchern darauf beschränkt sein werden, nicht mehr als drei Bücher pro Tag im Kindle-Shop zu veröffentlichen. Warum? Wegen „eines Zustroms von mutmaßlich KI-generiertem Material“ – das heißt, weil die Bücher in einem unmenschlichen Tempo geschrieben werden.

Das Risiko besteht also in der Schaffung eines ständigen Stroms abgeleiteter Werke. Für einen Autor ist es eine Sache zu wissen, dass aufgeregte Menschen hin und wieder neue Geschichten für ihre Charaktere erfinden. Es ist noch etwas anderes zu wissen, dass solche Geschichten auf Abruf ohne praktische Grenzen entstehen. Das stellt eine echte Gefahr für den Anreiz dar, Autor zu werden – den genauen Anreiz gibt es durch das Urheberrecht, den es zu schützen gilt.

Siehe auch  Prankster lässt „Clippy“ von Microsoft als ChatGPT-gestützten KI-Assistenten für Windows wieder auferstehen

Im vergangenen August bestätigte ein Bundesgericht die Position des Copyright Office, dass Werke, die vollständig durch generative KI geschaffen wurden, keinen Anspruch auf Urheberrechtsschutz haben. „Menschliche Urheberschaft ist eine Grundvoraussetzung des Urheberrechts“, schrieb Richterin Beryl Howell, eine Regel, die aus „jahrhundertelanger fundierter Einsicht“ abgeleitet wurde. Und es gibt auch einen praktischen Grund: „Nichtmenschliche Akteure benötigen keinen Anreiz mit dem Versprechen exklusiver Rechte nach US-amerikanischem Recht, und das Urheberrecht war daher nicht darauf ausgelegt, sie zu erreichen.“

Der nichtmenschliche Schauspieler ist also kein Autor und handelt nicht aus Anreiz, geschweige denn aus Begeisterung für das zugrunde liegende Werk; Was auch immer die Vorzüge einer generativen KI sein mögen, sie kann kaum als Fan bezeichnet werden. Und es wäre keine große Anpassung der Algorithmen erforderlich, um auf bestimmte Anfragen mit „Es tut mir leid, aber es ist mir nicht gestattet, fiktive Werke zu schaffen, die von urheberrechtlich geschützten Werken abgeleitet sind“ zu antworten.

In einer Einreichung aus dem Jahr 2019 beim US-Patent- und Markenamt argumentierte OpenAI, dass die Schulung von LLMs zu urheberrechtlich geschützten Werken eine faire Verwendung sei, insbesondere weil jede andere Regel die Forschung im Bereich der künstlichen Intelligenz zurückwerfen würde. Die Hauptbegründung geht aus der Schlussfolgerung klar hervor: „Wir hoffen, dass die politischen Entscheidungsträger in den USA weiterhin zulassen werden, dass dieser Bereich dramatischer neuer Innovationen ohne übermäßige Belastungen durch das Urheberrechtssystem vorangetrieben wird.“

Was die Autorengilde versucht, ist, dies ein wenig umzukehren, um Entwickler und Benutzer gleichermaßen daran zu erinnern, dass es auch klug wäre, die Fortführung der guten, altmodischen menschlichen Autorenschaft ohne übermäßige Belastungen durch die KI zuzulassen.

Siehe auch  Die Sonne von Châteauguay | 3 Fragen zu Chateauguay in ChatGPT

Mehr von Stephen L. Carter bei Bloomberg Opinion:

• Ein hochkarätiges Buch oder nur ein paar Klappentexte?

• Trumps Prozesse im Fernsehen zu übertragen, ist ein Fehler

• Was tun mit Wandgemälden, denen Rassismus vorgeworfen wird?

Diese Kolumne spiegelt nicht unbedingt die Meinung der Redaktion oder von Bloomberg LP und seinen Eigentümern wider.

Stephen L. Carter ist Kolumnist bei Bloomberg Opinion, Juraprofessor an der Yale University und Autor von „Invisible: The Story of the Black Woman Lawyer Who Took Down America’s Most Powerman Mobster“.

Weitere Geschichten wie diese finden Sie unter Bloomberg.com/opinion

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein