In der Fülle von Urheberrechtsklagen gegen Entwickler künstlicher Intelligenz stechen zwei am Mittwoch eingereichte Beschwerden gegen OpenAI und verwandte Beklagte hervor.

Im Gegensatz zu den meisten Autoren, Künstlern und Nachrichtenorganisationen, die KI-Entwickler verklagt haben, Die Intercept-Medien Und Rohe Story-Medien machen keine einfachen Ansprüche wegen Urheberrechtsverletzung geltend. Die Medienunternehmen behaupten stattdessen lediglich, dass OpenAI und seine Mitangeklagten gegen den Digital Millennium Copyright Act (DMCA) verstoßen und ihre Urheberrechte absichtlich untergraben haben, indem sie identifizierende Informationen aus Artikeln entfernt haben, die zum Trainieren des KI-Systems hinter dem beliebten Chatbot chatgpt verwendet wurden.

Wie mein Reuters-Kollege Blake Brittain am Mittwoch berichtete, verbietet das DMCA-Bundesgesetz von 1998 die Entfernung von Informationen, die Urheberrechtsinhabern helfen können, Verstöße zu erkennen, einschließlich Artikeltiteln, Autorennamen und Urheberrechtsdaten.

In den neuen Klagen gegen Intercept und Raw Story wird davon ausgegangen, dass OpenAI diese Informationen absichtlich aus den Schulungsmaterialien entfernt hat, damit die Antworten von ChatGPT auf Benutzeraufforderungen den Eindruck erwecken würden, dass „es eine allwissende, ‚intelligente‘ Quelle der bereitgestellten Informationen ist, wenn sie vorhanden sind.“ Tatsächlich basieren die Antworten häufig auf urheberrechtlich geschützten journalistischen Werken, die ChatGPT einfach nachahmt.“

In einer Pressemitteilung, die den neuen Klagen beigefügt war, sagten die Anwälte der Kläger von Loevy & Loevy, dass ihre DMCA-Theorie einen alternativen Weg zur Wiederherstellung biete, bei dem Nachrichtenorganisationen kein Geld für die Registrierung ihrer Urheberrechte ausgeben müssten.

Die Theorie ermöglicht es den Klägern aber auch, ein Hauptargument der Verteidigung in Urheberrechtsklagen gegen KI-Entwickler zu umgehen: dass KI-Schulungsmaterialien urheberrechtlich geschützte Inhalte fair nutzen, um neue Produkte zu schaffen, die mehr können, als nur die geschützten Werke nachzubilden.

Fair Use war, wie Brittain für Reuters berichtete, ein Kernstück der Argumente zur KI-Verteidigung. Soviel sieht man aus dem knapp OpenAI reichte diese Woche eine Klage wegen Urheberrechtsverletzung ein, die von der New York Times eingereicht wurde. Die Anwälte von OpenAI bei Morrison & Foerster forderten die Einstellung des Verfahrens und argumentierten, dass die Fair-Use-Prinzipien letztendlich das KI-Training mit urheberrechtlich geschützten Materialien rechtfertigen werden, weil „es vollkommen rechtmäßig ist, urheberrechtlich geschützte Inhalte als Teil eines technologischen Prozesses zu verwenden, der (wie hier) dazu führt.“ die Schaffung neuer, unterschiedlicher und innovativer Produkte.“

Siehe auch  Nach dem Vorbild von Microsoft Bing kann der Samsung-Browser die ChatGPT-Funktion ePrice.HK hinzufügen

Oder wie OpenAI in einem Antrag von 2023 auf Abweisung eines Großteils eines Bundesgerichtsverfahrens in San Francisco, das von Autoren wie der Komikerin und Schauspielerin Sarah Silverman angeführt wurde, rundweg argumentierte: „Fair Use ist kein Verstoß.“

Indem The Intercept und Raw Story eher DMCA-Verstöße als herkömmliche Verstöße geltend machen, werden sie diesen Argumenten wahrscheinlich nicht ausgesetzt sein, so ihre Anwälte. „Wir glauben, dass der Fair-Use-Einwand in unseren Fällen nicht anwendbar wäre“, sagte der Anwalt der Kläger, Jon Loevy.

Das sind die guten Nachrichten für Loevy und seine Kunden. Die schlechte Nachricht: OpenAI und andere Angeklagte haben viele andere Argumente, um DMCA-Vorwürfe zu bekämpfen.

Weder OpenAI noch Morrison & Foerster antworteten auf meine Anfrage zu den jüngsten Klagen, die beim Bundesgericht in Manhattan eingereicht wurden. Microsoft MSFT, der in der Klage von The Intercept als Beklagter genannt wird, reagierte ebenfalls nicht auf eine Bitte um Stellungnahme. Aber wie ich erklären werde, haben sich OpenAI und andere Entwickler künstlicher Intelligenz bereits in anderen Fällen mit DMCA-Vorwürfen befasst – und Richter in zwei kalifornischen Verfahren davon überzeugt, die Ansprüche einzuschränken.

Es stellt sich heraus, dass The Intercept und Raw Story nicht die einzigen Kläger sind, die DMCA-Ansprüche gegen KI-Entwickler geltend machen, obwohl sie offenbar die ersten sind, die lediglich DMCA-Verstöße geltend machen. Die New York Times, die Autoren, die OpenAI vor einem Bundesgericht in San Francisco verklagten, und drei Künstler, die den Bildgenerator Stability AI verklagten, führten alle DMCA-Vorwürfe in ihre Klagen ein, wenn auch zweitrangig zu ihren Urheberrechtsverletzungsansprüchen. (Interessanterweise hat eine separate Gruppe von Autoren, die OpenAI vor einem Bundesgericht in Manhattan verklagt hatte, in ihrer konsolidierten Klage vom 5. Februar keine DMCA-Ansprüche geltend gemacht.)

Siehe auch  ChatGPT ist leicht zu täuschen

KI-Beklagte haben in ihren Anträgen auf Abweisung von DMCA-Behauptungen vor allem argumentiert, dass die Kläger nicht nachweisen können, dass KI-Entwickler absichtlich urheberrechtlich kennzeichnende Informationen aus den Inhalten entfernt haben, mit denen ihre Modelle trainiert wurden. Das Gesetz verlangt von den Klägern den Nachweis, dass die Beklagten absichtlich identifizierende Informationen gelöscht haben, um es den Urheberrechtsinhabern zu erschweren, Verstöße aufzuspüren. (Das klassische Beispiel ist eine Internetseite, die den Namen und das Urheberrecht eines Fotografen aus einem entwendeten Bild herausschneidet.) OpenAI und andere Angeklagte behaupten, sie hätten in ihren Trainingsmodellen keine solche List verwendet.

Sie haben auch argumentiert, dass die Kläger nicht nachweisen können, dass sie beabsichtigen, urheberrechtlich kennzeichnende Informationen aus ihren Ausgaben wegzulassen. In dem Antrag dieser Woche auf Abweisung der Klage der New York Times sagte OpenAI beispielsweise, dass ChatGPT schlimmstenfalls Auszüge oder Ausschnitte aus Times-Artikeln reproduziere. Es reproduziere keine ganzen Geschichten, die nur auf die Identifizierung von Urheberrechtsinformationen beschränkt seien, sagte OpenAI – ein Verhalten, das der Kongress bei der Verabschiedung des DMCA im Sinn hatte.

Aus Neugier habe ich ChatGPT gebeten, einen kurzen Antrag zur Abweisung von DMCA-Ansprüchen zu verfassen. Der Chatbot ergänzte seine Antwort mit Warnungen, dass er keine Rechtsberatung leisten könne, brachte aber Argumente vor, dass die Kläger „keine konkreten Einzelheiten zur angeblichen Entfernung“ von urheberrechtlich identifizierenden Informationen angegeben hätten und dass jede Entfernung dieser Informationen „unbeabsichtigt und ohne Böswilligkeit“ erfolgte.

OpenAI stellte in seinem Entlassungsbescheid im Times-Fall fest, dass zwei Bundesrichter bereits die DMCA-Argumente der AI-Beklagten unterstützt haben. Im vergangenen Oktober entschied der US-Bezirksrichter William Orrick aus San Francisco, dass die Künstler, die Stability AI verklagt hatten, es versäumt hatten, die Entfernung von urheberrechtlich identifizierenden Informationen aus bestimmten Werken geltend zu machen, die zum Trainieren des KI-Modells verwendet wurden. Es reichte nicht aus, sagte Orrick, die umfassende Veränderung von Bildern zu fordern, um Informationen wie Wasserzeichen und Künstlersignaturen zu löschen. Die Kläger müssten konkrete Änderungen an bestimmten Werken geltend machen, sagte er.

Siehe auch  Online-Rezension: Zenchef integriert jetzt ChatGPT

In ähnlicher Weise wies die US-Bezirksrichterin Araceli Martinez-Olguin aus San Francisco Anfang des Monats die DMCA-Klagen der Autoren gegen OpenAI mit der Begründung ab, dass die Kläger nicht nachweisen konnten, dass die Beklagten systematisch urheberrechtlich identifizierende Informationen aus Schulungsinhalten gelöscht hätten.

Martinez-Olguin sagte, die Prämisse werde durch die Ausgabe von ChatGPT untergraben, die Verweise auf Autorennamen und Buchtitel enthielt. Der Richter sagte außerdem, es sei im Zusammenhang mit den DMCA-Ansprüchen von Bedeutung, dass die Bücher der Autoren in den ChatGPT-Antworten nicht vollständig wiedergegeben wurden.

Journalisten, die behaupten, dass ChatGPT im Wesentlichen ihre gesamte Arbeit plagiiert, werden dieses Problem vermutlich nicht haben, aber ein Präzedenzfall legt nahe, dass The Intercept und Raw Story plausible Behauptungen aufstellen müssen, dass OpenAI Informationen aus Schulungsinhalten entfernt oder verändert hat, um seine Abhängigkeit zu verschleiern auf urheberrechtlich geschütztem Material.

Das wird nicht einfach sein.

Mehr lesen:

Laut OpenAI hat die New York Times ChatGPT „gehackt“, um eine Urheberrechtsklage anzustrengen

OpenAI wurde mit neuen Klagen von Nachrichtenagenturen wegen KI-Schulung konfrontiert

Wie das Urheberrecht die KI-Branche im Jahr 2024 bedrohen könnte

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein