Die New York Times hat eine weitere juristische Salve gegen OpenAI abgefeuert, nachdem der chatgpt-Hersteller ihm vorgeworfen hatte, den Chatbot manipuliert zu haben, um Inhalte der Mediengruppe wiederzugeben.

Das Paar befindet sich derzeit in einem Streit, nachdem die Veröffentlichung OpenAI einer Urheberrechtsverletzung vorwarf, weil es angeblich „Millionen“ der NYT-Artikel zum Trainieren großer Sprachmodelle verwendet habe.

In seiner neuesten EinreichungAls Antwort auf OpenAIs Versuche, Teile des Falles letzten Monat abzuweisen, erwidert die NYT, dass die Verteidigung von OpenAI „eher eine Spinnwebsite als ein rechtlicher Auftrag“ gewesen sei, und sagt, dass „die aufmerksamkeitsstarke Behauptung von OpenAI, dass die Times ihre Produkte ‚gehackt‘ habe.“ .. ist ebenso irrelevant wie falsch.“

Außerdem wird behauptet, dass das KI-Unternehmen, in das Microsoft stark investiert hat (mehr als 10 Milliarden US-Dollar), die Hauptbehauptung, dass das Urheberrecht der NYT verletzt wurde, indem es seine Inhalte zum Trainieren und Betreiben von KI-Modellen nutzte, nicht einmal berührt hatte.

„OpenAI“, heißt es in der Akte, „erwägt keine Anstalten, die Hauptbehauptung zurückzuweisen, es habe die Urheberrechte der Times verletzt, seine neuesten Modelle zu trainieren und zu betreiben.“

Weiter heißt es: „Die wahre Beschwerde von OpenAI betrifft nicht die Art und Weise, wie die Times ihre Untersuchung durchgeführt hat, sondern das, was diese Untersuchung zutage gefördert hat: dass die Beklagten ihre Produkte durch das Kopieren der Inhalte der Times in einem beispiellosen Ausmaß entwickelt haben – eine Tatsache, die OpenAI nicht bestreiten wird und auch nicht bestreiten kann.“ .”

Die Einreichung geht weiter:

Der Fall geht auf Dezember 2023 zurück, als die NYT erstmals Microsoft und OpenAI wegen Urheberrechtsverletzung verklagte. Der Hauptvorwurf in der Beschwerde besteht darin, dass NYT-Inhalte ohne Genehmigung für das Training der OpenAI-Modelle verwendet wurden. In der Beschwerde nannte die NYT Beispiele für von ChatGPT wiedergewonnene Inhalte.

Siehe auch  NVIDIA stellt ChatGPT-Rivalen vor und nennt es Chat mit RTX

Im Februar 2024 entgegnete OpenAI, dass die NYT jemanden eingesetzt haben muss, um ChatGPT zu „hacken“, damit es NYT-Inhalte reproduziert, und bestritt, dass ChatGPT verwendet werden könne, um der NYT-Paywall auszuweichen.

„In der realen Welt verwenden die Leute weder ChatGPT noch ein anderes OpenAI-Produkt für diesen Zweck“, sagte OpenIAI. „Sie könnten es auch nicht. Normalerweise kann man ChatGPT nicht verwenden, um Times-Artikel nach Belieben bereitzustellen.“

Microsoft äußerte sich Anfang März 2024 mit einer Antwort auf die Behauptung der NYT, dass die Verwendung von GPT-basierten Produkten den unabhängigen Journalismus bedrohe. In der Akte verglichen die Anwälte von Microsoft den Streit mit den Versuchen der Motion Picture Association, das Wachstum der VCR-Technologie in den 1980er Jahren zu bremsen, und bezeichneten die Vorwürfe der NYT als „Weltuntergangszukunftstheorie“.

Damals sagte Ian Crosby, leitender Anwalt der NYT: „Microsoft bestreitet nicht, dass es mit OpenAI zusammengearbeitet hat, um Millionen von Werken der Times zu kopieren, ohne dass Microsoft die Erlaubnis hatte, seine Tools zu entwickeln.“

„Stattdessen werden LLMs seltsamerweise mit dem Videorecorder verglichen, obwohl die Hersteller von Videorecordern nie behauptet haben, dass es notwendig sei, sich bei der Herstellung ihrer Produkte auf massive Urheberrechtsverletzungen einzulassen.“

Das Register hat OpenAI wegen seiner Antwort auf diese neueste Einreichung kontaktiert und wird diesen Artikel aktualisieren, sobald das Unternehmen antwortet. ®

5/5 - (485 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein