Nach einem Jahr explosionsartigen Wachstums droht der generativen künstlichen Intelligenz (KI) möglicherweise die bislang größte rechtliche Bedrohung seitens der New York Times.

Die Times verklagte Microsoft und OpenAI, das Unternehmen hinter dem beliebten chatgpt-Tool, kurz vor Neujahr wegen Urheberrechtsverletzung und behauptete, die Unternehmen hätten Millionen seiner Artikel unzulässig zum Trainieren ihrer KI-Modelle verwendet.

Die Zeitung schließt sich zahlreichen Autoren und Künstlern an, die in den letzten Monaten große Technologieunternehmen verklagt haben, weil diese ohne Erlaubnis KI auf ihren urheberrechtlich geschützten Werken trainiert haben. Viele dieser Klagen scheiterten vor Gericht.

Experten glauben jedoch, dass die Beschwerde der Times schärfer ist als frühere Urheberrechtsklagen im Zusammenhang mit KI.

„Ich denke, sie haben aus einigen der früheren Verluste gelernt“, sagte Robert Brauneis, Professor für geistiges Eigentum an der George Washington University Law School, gegenüber The Hill.

Die Times-Klage sei „in ihren Klagegründen etwas weniger vereinzelt“, sagte Brauneis.

„Die Anwälte hier für die New York Times achten darauf, nicht einfach alles an die Wand zu werfen und zu sehen, was dort hängen bleibt“, fügte er hinzu. „Sie konzentrieren sich wirklich auf das, was ihrer Meinung nach bleiben wird.“

Transformation vs. Reproduktion

Generative KI-Modelle erfordern große Mengen an Material für das Training. Große Sprachmodelle wie ChatGPT von OpenAI und Copilot von Microsoft verwenden das Material, auf dem sie trainiert wurden, um vorherzusagen, welche Wörter wahrscheinlich auf eine Textfolge folgen, um menschenähnliche Antworten zu erzeugen.

Typischerweise sind diese KI-Modelle transformativer Natur, sagte Shabbi Khan, Co-Vorsitzender der Gruppe Künstliche Intelligenz, Automatisierung und Robotik bei der Anwaltskanzlei Foley & Lardner.

„Wenn Sie eine allgemeine Frage gestellt hätten … Es wird nicht gesucht und die richtige Passage gefunden und einfach nur reproduziert“, erklärte Kahn. „Es wird versuchen, probabilistisch eine eigene Version dessen zu erstellen, was gesagt werden muss, basierend auf einem Muster, das es durch die Analyse von Milliarden von Wörtern des Inhalts aufgreift.“

Siehe auch  Wir haben unsere Fragen an die künstliche Intelligenz ChatGPT gestellt

In ihrer Klage gegen OpenAI und Microsoft behauptet die Times jedoch, dass die von den Unternehmen entwickelten KI-Modelle Teile der Zeitungsartikel „auswendig gelernt“ hätten und diese manchmal reproduzieren könnten.

„Wenn Einzelpersonen über die eigenen Produkte der Beklagten auf die äußerst wertvollen Inhalte der Times zugreifen können, ohne dafür bezahlen zu müssen und ohne durch die Paywall der Times navigieren zu müssen, werden dies wahrscheinlich viele tun“, heißt es in der Klage.

„Das rechtswidrige Verhalten der Beklagten droht, Leser, einschließlich aktueller und potenzieller Abonnenten, von der Times abzulenken und dadurch die Abonnement-, Werbe-, Lizenz- und Affiliate-Einnahmen zu verringern, die die Fähigkeit der Times finanzieren, weiterhin ihr aktuelles Niveau an bahnbrechendem Journalismus zu produzieren“, hieß es fügt hinzu.

Als Reaktion auf die Klage sagte ein OpenAI-Sprecher in einer Erklärung, dass das Unternehmen „die Rechte der Ersteller und Eigentümer von Inhalten“ respektiert und sich „verpflichtet, mit ihnen zusammenzuarbeiten, um sicherzustellen, dass sie von der KI-Technologie und neuen Einnahmemodellen profitieren“.

Brauneis sagte, einige der „beeindruckendsten“ Teile des Times-Falls seien die wiederholten Beispiele dafür, dass die KI-Modelle das Material einfach und fast wörtlich wiedergeben.

Frühere Urheberrechtsklagen hätten solche direkten Reproduktionen ihres Materials durch die Models nicht vorweisen können, bemerkte Khan.

In den letzten Monaten haben Gerichte Ansprüche von Klägern in ähnlichen Klagen abgewiesen, die argumentierten, dass die Ergebnisse bestimmter KI-Modelle ihr Urheberrecht verletzten, weil sie keine Ergebnisse zeigten, die ihrem urheberrechtlich geschützten Werk im Wesentlichen ähnlich seien.

„Ich finde [the Times] hat im Vergleich zu den anderen Beschwerden, die in der Vergangenheit vorgebracht wurden, gute Arbeit geleistet“, sagte Khan gegenüber The Hill. „Sie lieferten zahlreiche Beispiele für im Grunde genommen Ausschnitte und, offen gesagt, mehr als nur Ausschnitte, Passagen der New York Times als Reproduktionen.“

Khan schlug vor, dass das Gericht entscheiden könnte, dass bestimmte Anwendungsfälle generativer KI nicht transformativ genug seien und von Unternehmen verlangen könnte, bestimmte Eingabeaufforderungen oder Ausgaben einzuschränken, um zu verhindern, dass KI-Modelle urheberrechtlich geschützte Inhalte reproduzieren.

Siehe auch  ChatGPT unterstützt offiziell Siri und Shortcut-Funktionen. In diesem Artikel erfahren Sie, wie Sie es verwenden und ändern, um auf Chinesisch aufzuwachen – Computer Wang Ada

Während Brauneis ebenfalls anmerkte, dass das Problem zu einer einstweiligen Verfügung gegen die Technologieunternehmen oder Schadensersatz für die Times führen könnte, betonte er auch, dass es sich nicht um ein unlösbares Problem für generative KI handele.

„Ich denke, dass die Unternehmen darauf reagieren und Filter entwickeln werden, die die Häufigkeit dieser Art von Ausgabe drastisch reproduzieren und reduzieren“, sagte er. „Ich glaube also nicht, dass das ein langfristiges, großes Problem für diese Unternehmen darstellt.“

In einer Antwort vom Oktober auf eine Anfrage des US Copyright Office sagte OpenAI, es habe Maßnahmen entwickelt, um die Wahrscheinlichkeit des „Auswendiglernens“ oder der wörtlichen Wiederholung durch seine KI-Modelle zu verringern, einschließlich der Entfernung von Duplikaten aus seinen Trainingsdaten und der Schulung seiner Modelle, gezielte Eingabeaufforderungen abzulehnen bei der Vervielfältigung urheberrechtlich geschützter Werke.

Das Unternehmen stellte jedoch fest: „Aufgrund der vielfältigen Möglichkeiten, auf denen ein Benutzer Fragen stellen kann, ist ChatGPT möglicherweise nicht perfekt darin, jede Anfrage zu verstehen und abzulehnen, die darauf abzielt, Ausgaben zu erhalten, die möglicherweise einen Teil des Inhalts enthalten, auf den das Modell trainiert wurde.“

Das KI-Modell ist außerdem mit Ausgabefiltern ausgestattet, die potenziell gewalttätige Inhalte blockieren können, die trotz anderer Sicherheitsvorkehrungen generiert werden, so OpenAI.

OpenAI betonte in einer Erklärung am Montag außerdem, dass das Auswendiglernen ein „seltener Fehler“ sei und behauptete, dass die Times „absichtlich Eingabeaufforderungen manipuliert“ habe, um ChatGPT dazu zu bringen, ihre Artikel wiederzugeben.

„Selbst wenn wir solche Eingabeaufforderungen verwenden, verhalten sich unsere Modelle normalerweise nicht so, wie es die New York Times andeutet, was darauf hindeutet, dass sie entweder das Modell angewiesen haben, wieder aufzustoßen, oder sich aus vielen Versuchen ihre Beispiele herausgepickt haben“, sagte das Unternehmen.

„Trotz ihrer Behauptungen stellt dieser Missbrauch keine typische oder erlaubte Benutzeraktivität dar und ist kein Ersatz für die New York Times“, heißt es weiter. „Trotzdem machen wir unsere Systeme kontinuierlich widerstandsfähiger gegen gegnerische Angriffe, um Trainingsdaten wiederzugeben, und haben bei unseren jüngsten Modellen bereits große Fortschritte gemacht.“

Siehe auch  Chassidischer Rabbiner veröffentlicht „koschere“ KI-Chatbot-Alternative zu ChatGPT

Wie Medien und KI sich gegenseitig prägen können

Carl Szabo, Vizepräsident und General Counsel des Technologiekonzerns NetChoice, warnte davor, dass Klagen wie die der Times die Branche ersticken könnten.

„Sie werden eine Reihe dieser Bemühungen erleben, KI-Entwickler für Geld auf eine Art und Weise auszutricksen, die der Öffentlichkeit schadet, den öffentlichen Zugang zu Informationen beeinträchtigt und den Zweck des Urheberrechtsgesetzes, nämlich die Förderung menschlichen Wissens, irgendwie untergräbt.“ am Ende des Tages“, sagte Szabo gegenüber The Hill.

Schließlich sagte Khan, er gehe davon aus, dass es einen Mechanismus geben werde, über den Technologieunternehmen Lizenzen für Inhalte wie Artikel aus der Times erhalten könnten, um ihre KI-Modelle zu trainieren.

OpenAI hat bereits Verträge mit The Associated Press und Axel Springer – einem deutschen Medienunternehmen, dem Politico, Business Insider und andere Publikationen gehören – über die Nutzung ihrer Inhalte abgeschlossen.

Die Times wies in ihrer Klage auch darauf hin, dass sie sich im April an Microsoft und OpenAI gewandt habe, um Bedenken hinsichtlich des geistigen Eigentums und die Möglichkeit einer Einigung zu äußern, was OpenAI in seiner Stellungnahme zu dem Fall anerkannte.

„Unsere laufenden Gespräche mit der New York Times waren produktiv und gingen konstruktiv voran, daher sind wir von dieser Entwicklung überrascht und enttäuscht“, sagte ein Sprecher.

Der OpenAI-Sprecher fügte hinzu, dass das Unternehmen „zuversichtlich ist, dass wir einen für beide Seiten vorteilhaften Weg der Zusammenarbeit finden.“

„Ich denke, die meisten Verlage werden dieses Modell übernehmen, weil es dem Unternehmen zusätzliche Einnahmen bringt“, sagte Khan gegenüber The Hill. „Und wir können das sehen, weil die New York Times versucht hat, darauf einzugehen [an agreement]. Es gibt also einen Preis, den sie zu akzeptieren bereit sind.“

Copyright 2023 Nexstar Media Inc. Alle Rechte vorbehalten. Dieses Material darf nicht veröffentlicht, ausgestrahlt, umgeschrieben oder weitergegeben werden.

5/5 - (457 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.