OpenAI hat der New York Times Company vorgeworfen, jemanden dafür bezahlt zu haben, chatgpt zu „hacken“, um wörtliche Absätze aus Artikeln in seiner Zeitung zu generieren. Mit Hack meint das Unternehmen vermutlich: Wie gewohnt eingeloggt und ihm nervige Fragen gestellt.

Im Dezember verklagte die NYT OpenAI und seinen Unterstützer Microsoft und beschuldigte das Paar, die Website der Zeitung ohne Erlaubnis gecrawlt zu haben, um große Sprachmodelle zu trainieren. Die Klage enthielt angebliche Beweise dafür, dass ChatGPT ganze Passagen von Artikeln der New York Times aufgrund von Benutzereingaben reproduzierte.

Der Verlag glaubt, dass Benutzer der OpenAI-Technologie – die Microsoft in seinem gesamten Software- und Cloud-Imperium einsetzt – die Paywall der Zeitung effektiv umgehen und Artikel kostenlos lesen könnten, indem sie den Chatbot bitten, Teile der Berichterstattung abzuspucken, und so dem Geschäft das Abonnementgeld entziehen.

OpenAI wehrte sich diese Woche jedoch gegen diese Behauptungen, als es vor Gericht nachrief [PDF] den Fall abzuweisen. Das Startup meinte, dass die Beweise des Broadsheets „anscheinend langwierige und umfangreiche Bemühungen zum Hacken der OpenAI-Modelle gewesen seien“ und verneinte, dass ChatGPT Menschen um Paywalls herumführen könne, und fügte hinzu, dass die Leute den Chatbot ohnehin nicht zum Lesen veröffentlichter Artikel nutzen.

„In der realen Welt verwenden die Leute weder ChatGPT noch ein anderes OpenAI-Produkt für diesen Zweck“, sagte das Superlabor. „Sie könnten es auch nicht. Normalerweise kann man ChatGPT nicht verwenden, um Times-Artikel nach Belieben bereitzustellen.“ Stattdessen argumentierten ihre Anwälte, dass die NYT ihren Chatbot missbraucht habe, indem sie die Software dazu gebracht habe, einige Trainingsdaten wiederzugeben, eine Leistung, die offensichtlich über die Fähigkeiten aller anderen hinausgeht, mit Ausnahme der hinterhältigen Schnellingenieure der Times.

Siehe auch  Was ist Grok? Elon Musks ChatGPT-Konkurrent, erklärt

„Die Wahrheit, die im Verlauf dieses Falles ans Licht kommen wird, ist, dass die Times jemanden dafür bezahlt hat, die Produkte von OpenAI zu hacken … Sie konnten dies nur tun, indem sie einen Fehler (zu dessen Behebung sich OpenAI verpflichtet hat) gezielt ausnutzen und mithilfe von Täuschungen ausnutzen.“ Eingabeaufforderungen, die eklatant gegen die Nutzungsbedingungen von OpenAI verstoßen“, behauptete OpenAI als Vergeltung.

OpenAI behauptete, dass Zehntausende Versuche erforderlich waren, bevor ChatGPT wörtliche Textpassagen generierte.

Der leitende Anwalt der NYT und Partner der Anwaltskanzlei Susman Godfrey, Ian Crosby, bezeichnete die Hacking-Vorwürfe in einer Notiz als „bizarr“. Das Register.

„Was OpenAI bizarrerweise fälschlicherweise als ‚Hacking‘ bezeichnet, besteht einfach darin, die Produkte von OpenAI zu nutzen, um nach Beweisen dafür zu suchen, dass sie die urheberrechtlich geschützten Werke der Times gestohlen und reproduziert haben“, sagte er. „Und genau das haben wir herausgefunden. Tatsächlich ist das Ausmaß der Kopien von OpenAI viel größer als die über 100 in der Beschwerde dargelegten Beispiele.“

Sogenannte „Prompt-Injection“-Angriffe ermöglichen die Umgehung von Leitplanken, die verhindern sollen, dass große Sprachmodelle wie ChatGPT illegale oder unerwünschte Inhalte produzieren. OpenAI scheint der Times vorgeworfen zu haben, solche Angriffe zu nutzen.

Crosby argumentierte unterdessen, dass die Vorwürfe von OpenAI gegenüber der NYT bestätigten, dass das von Sam Altman betriebene Labor Benutzereingabeaufforderungen überwacht und Antworten ausgibt. Um ehrlich zu sein, ist das nicht verwunderlich: Schließlich prahlte der Emporkömmling erst letzte Woche damit, chinesische, iranische, russische und nordkoreanische Accounts entdeckt und vernichtet zu haben, die seiner Ansicht nach seine Reihe generativer Modelle missbrauchten.

Wir beachten die OpenAI Datenschutzrichtlinie gibt an, dass das Unternehmen die Anfragen der Nutzer und die Nutzung seiner Dienste aus verschiedenen Gründen überwachen wird, darunter (je nachdem). Einstellungen und Zahlungsplan) potenziell zukünftige Modelle trainieren.

Siehe auch  Midjourney und ChatGPT beschleunigen die Renovierung von Luxusimmobilien unter engen Zeitvorgaben

Dennoch ist NYT-Anwalt Crosby unbeeindruckt. „Die Antwort von OpenAI zeigt auch, dass es die Anfragen und Ausgaben der Benutzer verfolgt, was besonders überraschend ist, wenn man bedenkt, dass sie behauptet haben, dies nicht zu tun. Wir freuen uns darauf, dieses Problem bei der Entdeckung zu untersuchen“, sagte er.

Crosby bestritt vor Gericht auch das Argument des ChatGPT-Herstellers, dass die Zeitung zu lange gebraucht habe, um eine Beschwerde einzureichen, und die allgemeine Haltung des Labors, dass es nichts falsch gemacht habe.

„OpenAI, das bisher geheim gehalten und absichtlich verschwiegen hat, wie seine Produkte funktionieren, behauptet nun, es sei zu spät, eine Klage wegen Verstößen einzureichen oder sie zur Verantwortung zu ziehen. Wir sind anderer Meinung. Es ist bemerkenswert, dass OpenAI nicht bestreitet, dass es Times kopiert hat, funktioniert ohne.“ Erlaubnis innerhalb der Verjährungsfrist, seine neueren und aktuellen Modelle zu trainieren.

Das Register hat OpenAI um weitere Kommentare gebeten. ®

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein