[ad_1]
Am späten Montag, The New York Times antwortete zu den Behauptungen von OpenAI, dass die Zeitung ChatGPT „gehackt“ habe, um eine Klage gegen das führende KI-Unternehmen einzuleiten.
„OpenAI ist falsch“, argumentierte die Times wiederholt in einem Gerichtsverfahren gegen den Antrag von OpenAI, die Klage der NYT abzuweisen, in der OpenAI und Microsoft Urheberrechtsverletzungen vorgeworfen wurden. „Die aufsehenerregende Behauptung von OpenAI, dass die Times ihre Produkte ‚gehackt‘ habe, ist ebenso irrelevant wie falsch.“
OpenAI hatte argumentiert, dass NYT angeblich „Zehntausende Versuche unternommen habe, um“ angeblich „höchst anomale Ergebnisse“ zu generieren, was zeigte, dass ChatGPT Auszüge von NYT-Artikeln produzieren würde. Die angeblich irreführenden Eingabeaufforderungen der NYT – wie die wiederholte Frage an ChatGPT: „Wie lautet der nächste Satz?“ – zielten auf „zwei ungewöhnliche und unbeabsichtigte Phänomene“ sowohl bei ihren Entwicklertools als auch bei ChatGPT ab: Aufstoßen von Trainingsdaten und Modellhalluzination. OpenAI betrachtet beides als „einen Fehler“, den das Unternehmen nach eigener Aussage beheben will. OpenAI behauptete, kein normaler Benutzer würde ChatGPT auf diese Weise verwenden.
Doch während NYT die Taktiken verteidigte, mit denen ChatGPT dazu veranlasst wurde, gespeicherte Trainingsdaten – darunter mehr als 100 NYT-Artikel – herauszugeben, verwies NYT auf ChatGPT-Benutzer, die das Tool häufig zum Generieren ganzer Artikel zur Umgehung von Paywalls verwendet haben.
Laut der Akte hat NYT heute keine Ahnung, wie viele seiner Artikel zum Trainieren von GPT-3 und den nachfolgenden KI-Modellen von OpenAI verwendet wurden oder welche spezifischen Artikel verwendet wurden, da OpenAI „die Zusammensetzung der zum Training verwendeten Datensätze nicht öffentlich bekannt gegeben hat“. “ seine KI-Modelle. Anstatt eine Klage anzustrengen, habe NYT ChatGPT aufgefordert, Beweise zu finden, um das volle Ausmaß der Urheberrechtsverletzung des Tools zu ermitteln, argumentierte NYT.
Um herauszufinden, ob ChatGPT seine Urheberrechte an bestimmten Artikeln verletzt, hat NYT „Beispiele für das Auswendiglernen ermittelt, indem es GPT-4 mit den ersten paar Wörtern oder Sätzen von Times-Artikeln aufgefordert hat“, heißt es in der Gerichtsakte.
OpenAI hatte versucht zu argumentieren, dass „in der realen Welt die Leute weder ChatGPT noch ein anderes OpenAI-Produkt verwenden“, um präzisen Text aus Artikeln hinter Paywalls zu generieren. Aber über die „Verwendung von ChatGPT zur Umgehung von Paywalls“ wird „weithin berichtet“, argumentierte NYT .
„Nach Angaben von OpenAI hat The Times ein Fehlverhalten begangen, indem sie den Diebstahl von urheberrechtlich geschützten Inhalten der Times durch OpenAI aufgedeckt hat“, heißt es in der Gerichtsakte von NYT. „Die wahre Beschwerde von OpenAI betrifft nicht die Art und Weise, wie die Times ihre Untersuchung durchgeführt hat, sondern das, was diese Untersuchung zutage gefördert hat: dass die Beklagten ihre Produkte durch das Kopieren der Inhalte der Times in einem beispiellosen Ausmaß entwickelt haben – eine Tatsache, die OpenAI nicht bestreiten wird und auch nicht bestreiten kann.“
NYT lehnte die Bitte von Ars um einen Kommentar ab. OpenAI reagierte nicht sofort auf die Bitte von Ars um einen Kommentar.
ChatGPT-Benutzer umgehen Paywalls
Laut der Gerichtsakte der NYT verletzten ChatGPT-Ausgaben zunächst nur das Urheberrecht, indem sie „Kopien und/oder Derivate von Times-Werken zeigten, die zur Erstellung des Modells kopiert wurden“. Doch dann, im Mai 2023, wurde ein „Browse By Bing“-Plug-in in ChatGPT eingeführt, das „ChatGPT ermöglichte, Inhalte abzurufen, die über das hinausgingen, was im Trainingsdatensatz des zugrunde liegenden Modells enthalten war“, und verletzte das Urheberrecht, indem „synthetische Suchergebnisse angezeigt wurden, die Times umschreiben“. Werke werden als Reaktion auf Benutzersuchanfragen in Echtzeit abgerufen und kopiert.
Diese Funktion ermöglichte es ChatGPT-Benutzern, Paywalls zu umgehen und auf neuere Inhalte von Anbietern wie NYT zuzugreifen, was dazu führte, dass OpenAI im vergangenen Juli „Browse By Bing“ vorübergehend deaktivierte.
„Wir haben herausgefunden, dass die Browsing-Beta gelegentlich Inhalte auf eine Art und Weise anzeigen kann, die wir nicht möchten, z. B. wenn ein Benutzer gezielt nach dem Volltext einer URL fragt, kann es sein, dass diese Anfrage unbeabsichtigt erfüllt wird“, so OpenAI Hilfeseite sagte. „Wir deaktivieren vorübergehend die Funktion „Durchsuchen“, während wir das Problem beheben.“
Die Entscheidung von OpenAI, diese Funktion zu deaktivieren, verärgerte einige Benutzer, die ChatGPT zur Umgehung von Paywalls verwendeten. In einem ChatGPT-SubredditTausende wurden auf einen Beitrag aufmerksam, der auf die unbeabsichtigte Funktion aufmerksam machte, und kommentierten: „Wow, so nützlich!“ und scherzhaft: „Genieße es, solange es hält.“
Auf einer OpenAI Community-Seitebeschwerte sich ein zahlender ChatGPT-Benutzer darüber, dass OpenAI „gegen die zahlenden Benutzer von ChatGPT Plus arbeitet. Dieses Mal nehmen sie das Surfen weg, weil es den Inhalt einer Website liest, nach der der Benutzer fragt? Bitte, das ist es, was ich für Plus bezahle.“ für.“
„Ich weiß, dass es keinen Sinn hat, sich zu beschweren, weil OpenAI ChatGPT 4 zunehmend ‚kastrieren‘ wird“, fuhr der ChatGPT-Benutzer fort, „aber da ist meine Schimpftirade.“
NYT argumentierte in der Klage, dass öffentliche Berichte über Benutzer, die sich an ChatGPT wenden, um Paywalls zu umgehen, „der Behauptung von OpenAI widersprechen, dass seine Produkte nicht zur Bereitstellung von Paywall-geschützten Inhalten verwendet wurden, was die Notwendigkeit einer Offenlegung“ und nicht einer Abweisung unterstreicht.
[ad_2]