OpenAI hat eine offizielle Antwort auf die Klage der New York Times veröffentlicht, in der behauptet wird, dass das Unternehmen seine Artikel ohne Erlaubnis zum Trainieren des Large Language Model (LLM) verwendet habe.

In einem Brief veröffentlicht von OpenAIDas Unternehmen wies die Behauptungen der „New York Times“ zurück und wies darauf hin, dass die Veröffentlichung die Aufforderungen zum Wiedergeben von Daten im Zusammenhang mit Times-Artikeln erfunden habe. Beim Wiedergeben handelt es sich um einen Prozess, bei dem KI-Modelle Trainingsdaten wörtlich bereitstellen, wenn sie auf eine bestimmte Art und Weise dazu aufgefordert werden.

Interessanterweise scheinen die Aufregungen, die die New York Times hervorgerufen hat, auf jahrelange Artikel zurückzuführen zu sein, die auf mehreren Websites Dritter verbreitet wurden. Es scheint, dass sie Eingabeaufforderungen absichtlich manipuliert haben, oft mit langen Auszügen von Artikeln, um unser Modell zum Erbrechen zu bringen. Selbst wenn sie solche Aufforderungen verwenden, verhalten sich unsere Modelle normalerweise nicht so, wie es die New York Times andeutet, was darauf hindeutet, dass sie das Modell entweder angewiesen haben, wieder aufzustoßen, oder sich aus vielen Versuchen ihre Beispiele herausgepickt haben.

Das Unternehmen erwähnt, dass es keine Informationen über die Klage hatte und davon erfuhr, als es es in der New York Times las.

Wir hatten der New York Times erklärt, dass ihr Inhalt wie jede einzelne Quelle keinen sinnvollen Beitrag zum Training unserer bestehenden Modelle leistete und auch für zukünftiges Training nicht ausreichend wirkungsvoll sein würde. Ihre Klage am 27. Dezember – von der wir durch die Lektüre der New York Times erfahren haben – war für uns eine Überraschung und Enttäuschung.

OpenAI sagte auch, dass die Times Fälle von Aufstoßen bei der Zusammenarbeit der beiden Parteien erwähnt habe, auf Nachfrage jedoch keine Beispiele genannt habe. Das Unternehmen wies darauf hin, dass es Vorwürfe des Aufstoßens mit höchster Priorität behandle und zur Untermauerung seines Anspruchs ein Beispiel für die Entfernung der Bing-Integration anführte.

Unterwegs hatten sie erwähnt, dass ihre Inhalte wieder aufgetaucht seien, weigerten sich jedoch wiederholt, Beispiele zu nennen, obwohl wir uns verpflichtet hatten, etwaige Probleme zu untersuchen und zu beheben. Wir haben gezeigt, wie ernst wir dies als Priorität nehmen, etwa im Juli, als wir eine chatgpt-Funktion abschalteten, unmittelbar nachdem wir erfahren hatten, dass sie Echtzeitinhalte auf unbeabsichtigte Weise reproduzieren konnte.

Der Brief konzentrierte sich auch auf andere Punkte, darunter den Lizenzvertrag zwischen Nachrichtenagenturen wie Associated Press, Axel Springer, American Journalism Project und NYU. OpenAI sprach auch über faire Nutzung und sagte, wenn der Inhalt im Internet verfügbar sei, falle er unter die Fair-Use-Verordnung und könne zum Training von KI-Modellen verwendet werden.

Das Trainieren von KI-Modellen mithilfe öffentlich verfügbarer Internetmaterialien ist eine faire Verwendung, wie durch langjährige und weithin akzeptierte Präzedenzfälle bestätigt wird. Wir betrachten dieses Prinzip als fair gegenüber den Schöpfern, als notwendig für Innovatoren und als entscheidend für die Wettbewerbsfähigkeit der USA.

Allerdings bietet OpenAI eine Opt-out-Option, wenn jemand nicht möchte, dass seine Daten zum Training von KI-Modellen verwendet werden. Es wurde auch darauf hingewiesen, dass die New York Times diese Option im August 2023 ausgeübt hatte.

Allerdings sind uns gesetzliche Rechte weniger wichtig als gute Bürger zu sein. Wir sind in der KI-Branche führend und haben ein einfaches Opt-out-Verfahren für Verlage bereitgestellt (das die New York Times im August 2023 eingeführt hat), um zu verhindern, dass unsere Tools auf ihre Websites zugreifen.

Die New York Times ist nicht die Einzige, die OpenAI und Microsoft wegen unbefugter Datennutzung verklagt. Anfang dieser Woche reichten außerdem zwei Autoren eine Klage ein, in der sie behaupteten, dass OpenAI ihre veröffentlichten Arbeiten zum Trainieren seiner KI-Modelle genutzt habe.

Siehe auch  Automotive: ChatGPT steigt ein
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.