Schalten Sie den Editor's Digest kostenlos frei

OpenAI hat behauptet, dass die New York Times ihren Chatbot „absichtlich manipuliert“ habe, um ganze Zeilen aus Zeitungsartikeln wiederzugeben, während sie gegen eine Urheberrechtsklage der Zeitung ankämpft, die eine Bedrohung für die Entwicklung ihrer Technologie darstellt.

Die kurz nach Weihnachten eingereichte Klage sei „unbegründet“, hieß es in einem am Montag veröffentlichten Blogbeitrag des Unternehmens für künstliche Intelligenz, in dem es hieß, die Zeitung erzähle nicht „die ganze Geschichte“.

In der am 27. Dezember eingereichten Klage warf das US-Medienunternehmen dem KI-Start-up und seinem Hauptfinanzierer Microsoft vor, beim Aufbau seiner Chatbot-Technologie, die in der Lage ist, detailliert auf natürliche Fragen zu reagieren, auf Millionen von Artikeln einen „Trittbrettfahrer“ gemacht zu haben Sprachansagen.

Für KI-Unternehmen wie OpenAI, deren Modelle auf der Aufnahme riesiger Datenmengen aus dem gesamten Internet basieren, ist das Urheberrecht ein zunehmend heikles Thema. In der Klage, die Schadensersatz in Milliardenhöhe verlangt, wird behauptet, OpenAI habe von der „Ausbeutung und Veruntreuung des geistigen Eigentums der Times“ profitiert.

Daraufhin wurde eine Sammelklage von zwei Sachbuchautoren vorgeschlagen, die behaupten, OpenAI habe ihr Urheberrecht verletzt, indem es sein großes Sprachmodell auf ihre Arbeit trainierte. Namhafte Belletristikautoren wie John Grisham und Jodi Picoult reichten zuvor eine ähnliche Klage ein.

In seinem Blog behauptet OpenAI, von der Klage der Times zum ersten Mal aus einem Nachrichtenartikel gehört zu haben, der am 27. Dezember von der Zeitung veröffentlicht wurde. Zuvor habe es produktive Gespräche mit der Medienorganisation über eine Partnerschaft geführt und dies auch getan erklärte, dass „die Inhalte keinen nennenswerten Beitrag zum Training unserer bestehenden Modelle geleistet haben“.

Siehe auch  ChatGPT Enterprise geht auf Bedenken hinsichtlich der Datensicherheit und des Datenschutzes am Arbeitsplatz ein

In ihrem Urheberrechtsfall behauptete die Times, der Chatbot von OpenAI habe ganze Auszüge seiner Artikel wiedergewürgt – ein Phänomen, das OpenAI als „unbeabsichtigtes Auswendiglernen“ bezeichnet und das das Unternehmen ausdrücklich zu vermeiden versucht hat.

Die Times forderte OpenAI außerdem auf, alle Trainingsdaten und Chatbot-Modelle zu vernichten, die ihr urheberrechtlich geschütztes Material verwendet hatten.

Laut OpenAI stammen die von der Times angeführten Beispiele aus alten Artikeln, die auf einer Reihe von Websites Dritter veröffentlicht wurden. „Es scheint [the Times] absichtlich manipulierte Eingabeaufforderungen, oft mit langen Auszügen von Artikeln, um unser Modell zum Erbrechen zu bringen.“

„Unsere Modelle verhalten sich normalerweise nicht so, wie es die New York Times unterstellt, was darauf hindeutet, dass sie entweder das Modell angewiesen haben, wieder aufzustoßen, oder sich aus vielen Versuchen ihre Beispiele herausgepickt haben“, schrieb OpenAI.

OpenAI und andere KI-Unternehmen haben argumentiert, dass die Verarbeitung von Unmengen öffentlich verfügbarer Daten aus dem Internet eine geschützte „faire Nutzung“ nach dem US-amerikanischen Urheberrecht darstellt.

Der sich zusammenbrauende Konflikt kommt daher, dass OpenAI versucht, eine Reihe von Vereinbarungen mit anderen Nachrichtenorganisationen abzuschließen, um deren Inhalte zu lizenzieren. Anfang Dezember schloss das Unternehmen eine bahnbrechende Vereinbarung mit dem deutschen Verlag Axel Springer im Wert von mehreren zehn Millionen Euro pro Jahr ab, die als Vorlage für zukünftige Kooperationen zwischen Verlagen und KI-Unternehmen dienen könnte.

„Wir halten die Klage der New York Times für unbegründet. Dennoch hoffen wir auf eine konstruktive Partnerschaft mit der New York Times und respektieren ihre lange Geschichte“, schrieb OpenAI im Blog vom Montag.

Die New York Times reagierte nicht sofort auf eine Bitte um Stellungnahme.

Siehe auch  Dieses KI-Papier schlägt AugGPT vor: einen Ansatz zur Erweiterung von Textdaten basierend auf ChatGPT
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.