Das bringt uns zu der Urheberrechtsverletzungsklage, die letzte Woche von führenden Mitgliedern der Authors Guild gegen OpenAI, das Unternehmen hinter GPT-3.4 und GPT4, eingereicht wurde (weitere sind in Vorbereitung). Obwohl die Beschwerde mehrere Verstöße auflistet, lassen sich die wichtigsten auf zwei beschränken: Erstens, dass OpenAI die Urheberrechte der Autoren verletzt hat, indem es seine Programme auf gescannte Kopien veröffentlichter Werke trainiert hat; und zweitens, dass OpenAI zu Verstößen durch andere beigetragen hat, indem es Benutzern ermöglicht hat, Fanfiction über Steroide zu erstellen.
Da ich selbst Schriftsteller bin und einige der Kläger kenne, habe ich Mitgefühl. Als langjähriger Dozent für geistiges Eigentum dürfte der Anspruch auf Ausbildung jedoch nur geringe Aussichten auf Erfolg haben.
Der Standpunkt der Autorengilde ist, dass die Materialien, auf denen eine KI trainiert wird, einen Wert haben. Ich stimme zu; Das gilt offenbar auch für Hollywood. Eine KI kann keine heimischen Krimis erzeugen, wenn sie nie heimische Krimis liest.
Die Gerichte werden jedoch wahrscheinlich entscheiden, dass das Ergebnis durch die Entscheidung des US-Berufungsgerichts für den zweiten Bezirk aus dem Jahr 2015 bestimmt wird, in der festgestellt wurde, dass google durch die „Fair Use“-Doktrin geschützt war, als es urheberrechtlich geschützte Werke in seine Datenbank scannte Dies liegt zum großen Teil daran, dass nur Ausschnitte für Benutzer generiert wurden, die versuchten, die Texte zu durchsuchen. Ich bin mir nicht sicher, ob das Gericht Recht hatte, aber es wird ein schwieriger Präzedenzfall sein, den man umgehen kann.
Das bringt uns zum zweiten Anspruch des Klägers.
Hier denke ich, dass die Kläger Recht haben. Wenn chatgpt einen detaillierten Entwurf für ein Game of Thrones-Prequel mit dem attraktiven Titel „Dawn of the Direwolves“ unter Verwendung der Charaktere und Schauplätze von George RR Martin erstellen kann – dann ist das nichts, wenn das kein rechtsverletzendes Werk ist.
Die Entwickler werden argumentieren, dass sie lediglich ein Tool erstellt haben und nicht dafür verantwortlich sind, wenn Fans es missbrauchen. Und da liegt natürlich die Schwierigkeit für Autoren. Niemand will die Leser verklagen. Die meisten populären Romanautoren tolerieren Fanfiction, weil sie die Zielgruppe aufgeregt und erwartungsvoll hält, während der Autor darum kämpft, das nächste Buch zu produzieren. Fanfiction ist größtenteils kein Wettbewerb; seine Existenz beweist die Popularität des Autors.
All dies setzt jedoch voraus, dass die Fanfiction von Fans produziert wird – von Menschen, die nicht nur aufgeregt und energiegeladen sind, sondern auch in einem, wie wir es nennen würden, menschlichen Tempo arbeiten. Den Beweis dafür, dass wir diese Welt verlassen, finden Sie in der jüngsten Ankündigung von Amazon, dass „Autoren“ von selbst veröffentlichten Büchern darauf beschränkt sein werden, nicht mehr als drei Bücher pro Tag im Kindle-Shop zu veröffentlichen. Warum? Wegen „eines Zustroms von mutmaßlich KI-generiertem Material“ – das heißt, weil die Bücher in einem unmenschlichen Tempo geschrieben werden.
Das Risiko besteht also in der Schaffung eines ständigen Stroms abgeleiteter Werke. Für einen Autor ist es eine Sache zu wissen, dass aufgeregte Menschen hin und wieder neue Geschichten für ihre Charaktere erfinden. Es ist noch etwas anderes zu wissen, dass solche Geschichten auf Abruf ohne praktische Grenzen entstehen. Das stellt eine echte Gefahr für den Anreiz dar, Autor zu werden – den genauen Anreiz gibt es durch das Urheberrecht, den es zu schützen gilt.
Im vergangenen August bestätigte ein Bundesgericht die Position des Copyright Office, dass Werke, die vollständig durch generative KI geschaffen wurden, keinen Anspruch auf Urheberrechtsschutz haben. „Menschliche Urheberschaft ist eine Grundvoraussetzung des Urheberrechts“, schrieb Richterin Beryl Howell, eine Regel, die aus „jahrhundertelanger fundierter Einsicht“ abgeleitet wurde. Und es gibt auch einen praktischen Grund: „Nichtmenschliche Akteure benötigen keinen Anreiz mit dem Versprechen exklusiver Rechte nach US-amerikanischem Recht, und das Urheberrecht war daher nicht darauf ausgelegt, sie zu erreichen.“
Der nichtmenschliche Schauspieler ist also kein Autor und handelt nicht aus Anreiz, geschweige denn aus Begeisterung für das zugrunde liegende Werk; Was auch immer die Vorzüge einer generativen KI sein mögen, sie kann kaum als Fan bezeichnet werden. Und es wäre keine große Anpassung der Algorithmen erforderlich, um auf bestimmte Anfragen mit „Es tut mir leid, aber es ist mir nicht gestattet, fiktive Werke zu schaffen, die von urheberrechtlich geschützten Werken abgeleitet sind“ zu antworten.
In einer Einreichung aus dem Jahr 2019 beim US-Patent- und Markenamt argumentierte OpenAI, dass die Schulung von LLMs zu urheberrechtlich geschützten Werken eine faire Verwendung sei, insbesondere weil jede andere Regel die Forschung im Bereich der künstlichen Intelligenz zurückwerfen würde. Die Hauptbegründung geht aus der Schlussfolgerung klar hervor: „Wir hoffen, dass die politischen Entscheidungsträger in den USA weiterhin zulassen werden, dass dieser Bereich dramatischer neuer Innovationen ohne übermäßige Belastungen durch das Urheberrechtssystem vorangetrieben wird.“
Was die Autorengilde versucht, ist, dies ein wenig umzukehren, um Entwickler und Benutzer gleichermaßen daran zu erinnern, dass es auch klug wäre, die Fortführung der guten, altmodischen menschlichen Autorenschaft ohne übermäßige Belastungen durch die KI zuzulassen.
Mehr von Stephen L. Carter bei Bloomberg Opinion:
• Ein hochkarätiges Buch oder nur ein paar Klappentexte?
• Trumps Prozesse im Fernsehen zu übertragen, ist ein Fehler
• Was tun mit Wandgemälden, denen Rassismus vorgeworfen wird?
Diese Kolumne spiegelt nicht unbedingt die Meinung der Redaktion oder von Bloomberg LP und seinen Eigentümern wider.
Stephen L. Carter ist Kolumnist bei Bloomberg Opinion, Juraprofessor an der Yale University und Autor von „Invisible: The Story of the Black Woman Lawyer Who Took Down America’s Most Powerman Mobster“.
Weitere Geschichten wie diese finden Sie unter Bloomberg.com/opinion