In einem Antrag auf Abweisung behauptete das KI-Unternehmen, das US-Medienunternehmen habe einen Fehler ausgenutzt, um Beweise zu erstellen, und sich auf Randverhalten konzentriert.

Der chatgpt-Erfinder OpenAI hat einen Antrag auf Abweisung mehrerer Ansprüche in der Urheberrechtsklage der New York Times eingereicht und argumentiert, dass die Beschwerde der Zeitung nicht ihren eigenen „bekanntermaßen strengen journalistischen Standards“ entspreche.

Das KI-Unternehmen behauptet, die New York Times habe „jemanden dafür bezahlt, die Produkte von OpenAI zu hacken“, um „höchst anomale Ergebnisse“ zu generieren, die als Beweismittel in seinem KI-Urheberrechtsfall dienen.

„Sie konnten dies nur tun, indem sie einen Fehler gezielt ausnutzten (zu dessen Behebung OpenAI sich verpflichtet hat) und indem sie irreführende Eingabeaufforderungen verwendeten, die eklatant gegen die Nutzungsbedingungen von OpenAI verstoßen“, heißt es in dem Antrag.

„Und selbst dann mussten sie die Tool-Teile genau der Artikel füttern, aus denen sie wörtliche Passagen herausholen wollten, die praktisch alle bereits auf mehreren öffentlichen Websites erscheinen. Normale Menschen nutzen die Produkte von OpenAI nicht auf diese Weise.“ Das Unternehmen behauptet, die „gekünstelten Angriffe“ der Zeitung seien von einem „Söldner“ verübt worden und bestreitet, dass die KI-Technologie den Journalismus bedroht.

In einem Ende 2023 eingeleiteten Rechtsstreit behauptete das Medienunternehmen, dass KI-Modelle wie ChatGPT Millionen von urheberrechtlich geschützten Nachrichtenartikeln, eingehenden Untersuchungen und anderen journalistischen Arbeiten kopiert und verwendet hätten.

„Die Angeklagten versuchen, die massiven Investitionen der Times in ihren Journalismus auszunutzen, indem sie diese nutzen, um ohne Erlaubnis oder Bezahlung Ersatzprodukte zu entwickeln“, sagte die New York Times. Im Januar sagte OpenAI, man sei von der Klage „überrascht und enttäuscht“ und fügte hinzu, die Zeitung erzähle „nicht die ganze Geschichte“.

Siehe auch  Wie ERNIE, Chinas neuer ChatGPT, erfolgreich darauf trainiert wurde, chinesische Propaganda weiterzuleiten, doch Chinas generativer KI-Chatbot hält dem Druck nicht stand

In dem diese Woche (26. Februar) eingereichten Antrag von OpenAI auf Abweisung wurde nicht nur behauptet, dass die damalige Nachrichtenorganisation ihr Produkt gehackt habe, um an Beweise zu gelangen, sondern auch, dass sich der Fall des Medienunternehmens auf „zwei ungewöhnliche und unbeabsichtigte Phänomene“ konzentriere, die der ChatGPT-Ersteller behauptet das KI-Modell: Aufstoßen und Halluzination.

„Das Aufstoßen von Trainingsdaten – manchmal auch als unbeabsichtigtes ‚Auswendiglernen‘ oder ‚Überanpassung‘ bezeichnet – ist ein Problem, an dessen Lösung Forscher bei OpenAI und anderswo hart arbeiten, unter anderem indem sie sicherstellen, dass ihre Datensätze ausreichend vielfältig sind“, heißt es in dem Antrag.

„Das zweite Phänomen – Halluzinationen – tritt auf, wenn ein Modell ‚scheinbar realistische‘ Antworten generiert, die sich als falsch herausstellen … Eine ständige Herausforderung bei der KI-Entwicklung besteht darin, Halluzinationen zu minimieren und (letztendlich) zu eliminieren, unter anderem durch die Verwendung vollständigerer Trainingsdatensätze zur Verbesserung der Genauigkeit.“ der Vorhersagen der Modelle.“

OpenAI fordert das Gericht außerdem auf, einen Teil der Klage des Medienunternehmens aufgrund eines Verhaltens abzuweisen, das mehr als drei Jahre zurückliegt und außerhalb einer Verjährungsfrist liegt.

In einer an SiliconRepublic.com gesendeten Erklärung stellte Ian Crosby, Partner bei Susman Godfrey und leitender Anwalt der New York Times, fest, dass OpenAI nicht bestritten habe, Millionen von Artikeln aus dem Medienunternehmen kopiert zu haben, um seine Produkte zu entwickeln. „Was OpenAI bizarrerweise fälschlicherweise als ‚Hacking‘ bezeichnet, besteht einfach darin, die Produkte von OpenAI zu nutzen, um nach Beweisen dafür zu suchen, dass sie die urheberrechtlich geschützten Werke der Times gestohlen und reproduziert haben“, sagte er. „Und genau das haben wir gefunden.“

Siehe auch  ChatGPT wählt drei vielversprechende Kryptowährungen für Anfang 2024 aus

Crosby sagte auch, dass die Entwicklung neuer Produkte keine Entschuldigung für die Verletzung des Urheberrechts sei. „Die Antwort von OpenAI zeigt auch, dass es die Anfragen und Ausgaben der Benutzer verfolgt, was besonders überraschend ist, wenn man bedenkt, dass sie behauptet haben, dies nicht zu tun. Wir freuen uns darauf, dieses Thema in Discovery zu untersuchen.“

Alon Yamin, CEO des KI-Plagiatserkennungsunternehmens Copyleaks, sagte, wir könnten mit weiteren ähnlichen Klagen rechnen. „Der Streit darüber, wie diese Modelle trainiert werden und welche Inhalte verwendet werden, wird noch eine Weile andauern, denn mit der Ausweitung dieser Technologie und ihrer weiten Verbreitung in immer mehr Branchen werden auch die Bedenken hinsichtlich der Ethik im Zusammenhang mit KI und ihrer Entwicklung zunehmen“, sagte er sagte.

Aktualisiert, 15:54 Uhr, 28. Februar 2024: Dieser Artikel wurde aktualisiert und enthält nun eine weitere Stellungnahme des leitenden Anwalts der New York Times.

Erfahren Sie in unserem neuen Podcast „Future Human: The Series“, wie neue Technologietrends die Zukunft verändern werden. Hören Sie jetzt weiter SpotifyAn apple.co/3OLSBUj“ target=“_blank“ rel=“noopener noreferrer“>Apfel oder wo auch immer Sie Ihre Podcasts bekommen.

5/5 - (150 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein