OpenAI hat einen Bundesrichter gebeten, Teile der Urheberrechtsklage der New York Times gegen OpenAI abzuweisen, mit der Begründung, dass die Zeitung ihren Chatbot chatgpt und andere Systeme der künstlichen Intelligenz „gehackt“ habe, um irreführende Beweise für den Fall zu generieren.

OpenAI sagte am Montag in einer Akte vor einem Bundesgericht in Manhattan, dass die Times die Technologie dazu veranlasst habe, ihr Material durch „trügerische Eingabeaufforderungen, die eklatant gegen die Nutzungsbedingungen von OpenAI verstoßen“ zu reproduzieren.

„Die Behauptungen in der Beschwerde der Times entsprechen nicht ihren bekanntermaßen strengen journalistischen Standards“, sagte OpenAI. „Die Wahrheit, die im Laufe dieses Falles ans Licht kommen wird, ist, dass die Times jemanden dafür bezahlt hat, die Produkte von OpenAI zu hacken.“

OpenAI nannte nicht den Namen des „Söldners“, mit dem die Times ihrer Aussage zufolge ihre Systeme manipuliert hatte, und beschuldigte die Zeitung auch nicht, gegen Anti-Hacking-Gesetze verstoßen zu haben.

„Was OpenAI bizarrerweise fälschlicherweise als ‚Hacking‘ bezeichnet, besteht einfach darin, die Produkte von OpenAI zu nutzen, um nach Beweisen dafür zu suchen, dass sie das urheberrechtlich geschützte Werk der Times gestohlen und reproduziert haben“, sagte der Anwalt der Zeitung, Ian Crosby, in einer Erklärung am Dienstag.

Vertreter von OpenAI antworteten nicht sofort auf eine Bitte um Stellungnahme zu der Einreichung.

Die Times verklagte OpenAI und seinen größten Geldgeber Microsoft im Dezember und warf ihnen vor, Millionen ihrer Artikel ohne Erlaubnis dazu verwendet zu haben, Chatbots zu trainieren, um Benutzern Informationen bereitzustellen.

Die Times gehört zu mehreren Urheberrechtsinhabern, die Technologieunternehmen wegen des angeblichen Missbrauchs ihrer Arbeit in der KI-Schulung verklagt haben, darunter Gruppen von Autoren, bildenden Künstlern und Musikverlegern.

Siehe auch  Liegt die Zukunft des ChatGPT-Herstellers in der Akquise?

Technologieunternehmen haben erklärt, dass ihre KI-Systeme urheberrechtlich geschütztes Material fair nutzen und dass die Klagen das Wachstum der potenziellen Multi-Billionen-Dollar-Industrie gefährden.

Die Gerichte haben sich noch nicht mit der entscheidenden Frage befasst, ob KI-Training nach dem Urheberrecht als faire Nutzung gilt. Bisher haben Richter einige Verletzungsklagen gegen die Ergebnisse generativer KI-Systeme abgewiesen, da es an Beweisen dafür mangelte, dass von KI erstellte Inhalte urheberrechtlich geschützten Werken ähneln.

In der Beschwerde der New York Times wurden mehrere Fälle angeführt, in denen OpenAI- und Microsoft-Chatbots Benutzern auf Aufforderung nahezu wörtliche Auszüge aus ihren Artikeln gaben. Sie beschuldigte OpenAI und Microsoft, versucht zu haben, „die massiven Investitionen der Times in ihren Journalismus auszunutzen“ und einen Ersatz für die Zeitung zu schaffen.

OpenAI sagte in seiner Einreichung, dass es der Times „Zehntausende Versuche bedurfte, um die äußerst anomalen Ergebnisse zu erzielen“.

„Normalerweise kann man ChatGPT nicht verwenden, um Times-Artikel nach Belieben bereitzustellen“, sagte OpenAI.

In der Einreichung von OpenAI heißt es außerdem, dass OpenAI und andere KI-Unternehmen ihre Klagen aufgrund der Fair-Use-Frage letztendlich gewinnen würden.

„Die Times kann KI-Modelle nicht daran hindern, sich Wissen über Fakten anzueignen, genauso wenig wie eine andere Nachrichtenorganisation die Times selbst daran hindern kann, Geschichten erneut zu berichten, an deren Untersuchung sie keine Rolle gespielt hat“, sagte OpenAI.

5/5 - (278 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein