((Automatisierte Übersetzung von Reuters, siehe Haftungsausschluss https://bit.ly/rtrsauto))

(Fügt Details zum Anspruch in Absatz 4 hinzu, Hintergrund zum Urheberrecht in den Absätzen 8–9, OpenAI-Kommentar zur Einreichung in den Absätzen 12–13) von Blake Brittain

OpenAI hat einen Bundesrichter gebeten, Teile der von der New York Times NYT.N gegen sie eingereichten Urheberrechtsklage abzuweisen, mit der Begründung, dass die Zeitung ihren chatgpt-Chatbot und andere künstliche Intelligenzsysteme „gehackt“ habe, um in dem Fall irreführende Beweise zu generieren.

OpenAI sagte in einem am Montag beim Bundesgericht in Manhattan eingereichten Dokument, dass die Times die Technologie dazu veranlasst habe, ihr Material durch „irreführende Eingabeaufforderungen, die eklatant gegen die Nutzungsbedingungen von OpenAI verstoßen“ zu reproduzieren.

„Die Behauptungen in der Beschwerde der Times entsprechen nicht den strengen journalistischen Standards, für die sie bekannt ist“, sagte OpenAI. „Die Wahrheit, die in diesem Fall ans Licht kommen wird, ist, dass die Times jemanden dafür bezahlt hat, die Produkte von OpenAI zu hacken

OpenAI nannte den „Killer“, den die Times angeblich zur Manipulation ihrer Systeme eingesetzt hatte, nicht beim Namen und beschuldigte die Zeitung nicht, gegen Anti-Hacking-Gesetze verstoßen zu haben.

Vertreter der New York Times und von OpenAI antworteten nicht sofort auf Anfragen nach Kommentaren zu der Beschwerde.

Im Dezember reichte die Times eine Klage gegen OpenAI und seinen Hauptunterstützer Microsoft MSFT.O ein und beschuldigte sie, Millionen von Artikeln des Unternehmens unbefugt genutzt zu haben, um Chatbots für die Bereitstellung von Informationen für Benutzer zu trainieren.

Die Times gehört zu mehreren Urheberrechtsinhabern, die Technologieunternehmen wegen des angeblichen Missbrauchs ihrer Werke im KI-Training verklagt haben, darunter Gruppen von Autoren, bildenden Künstlern und Musikverlegern.

Siehe auch  Chatgpt: Ein Jahr ChatGPT: Kein „iPhone-Moment“, aber dennoch ein Game-Changer

Technologieunternehmen haben erklärt, dass ihre künstlichen Intelligenzsysteme urheberrechtlich geschützte Werke fair nutzen und dass die Klagen das Wachstum einer potenziell milliardenschweren Industrie gefährden.

Die Gerichte müssen noch über die entscheidende Frage entscheiden, ob KI-Training als faire Nutzung im Sinne des Urheberrechts gilt. Bisher haben Richter einige Klagen wegen Urheberrechtsverletzung () im Zusammenhang mit der Produktion generativer KI-Systeme abgewiesen, da es an Beweisen dafür mangelte, dass die von der KI erstellten Inhalte urheberrechtlich geschützten Werken ähnelten.

In der Beschwerde der New York Times wurden mehrere Fälle angeführt, in denen OpenAI- und Microsoft-Chatbots Benutzern auf Aufforderung nahezu wörtliche Auszüge aus ihren Artikeln gaben. Er beschuldigte OpenAI und Microsoft, versucht zu haben, „die massiven Investitionen der Times in ihren Journalismus auszunutzen“ und einen Ersatz für die Zeitung zu schaffen.

OpenAI sagte in seiner Einreichung, dass es der Times „Zehntausende Versuche bedurfte, um die äußerst anomalen Ergebnisse zu erzielen“.

„Normalerweise ist es nicht möglich, ChatGPT zu verwenden, um Times-Artikel nach Belieben anzuzeigen“, sagte OpenAI.

OpenAI sagte auch, dass dieses Unternehmen und andere KI-Unternehmen letztendlich ihren Fall aufgrund der Frage der fairen Nutzung gewinnen werden.

„Die Times kann KI-Modelle nicht davon abhalten, etwas über die Fakten zu erfahren, genauso wenig wie eine andere Nachrichtenorganisation die Times selbst davon abhalten kann, Geschichten weiterzuverbreiten, auf die sie keinen Einfluss hatte. Rolle bei der Untersuchung“, sagte OpenAI.

5/5 - (445 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein