[ad_1]

Gettyimages 1894336797chatgpt unter Umgehung von Paywalls“/>

Am späten Montag, The New York Times antwortete zu den Behauptungen von OpenAI, dass die Zeitung ChatGPT „gehackt“ habe, um eine Klage gegen das führende KI-Unternehmen einzuleiten.

„OpenAI ist falsch“, argumentierte die Times wiederholt in einem Gerichtsverfahren gegen den Antrag von OpenAI, die Klage der NYT abzuweisen, in der OpenAI und Microsoft Urheberrechtsverletzungen vorgeworfen wurden. „Die aufsehenerregende Behauptung von OpenAI, dass die Times ihre Produkte ‚gehackt‘ habe, ist ebenso irrelevant wie falsch.“

OpenAI hatte argumentiert, dass NYT angeblich „Zehntausende Versuche unternommen habe, um“ angeblich „höchst anomale Ergebnisse“ zu generieren, was zeigte, dass ChatGPT Auszüge von NYT-Artikeln produzieren würde. Die angeblich irreführenden Eingabeaufforderungen der NYT – wie die wiederholte Frage an ChatGPT: „Wie lautet der nächste Satz?“ – zielten auf „zwei ungewöhnliche und unbeabsichtigte Phänomene“ sowohl bei ihren Entwicklertools als auch bei ChatGPT ab: Aufstoßen von Trainingsdaten und Modellhalluzination. OpenAI betrachtet beides als „einen Fehler“, den das Unternehmen nach eigener Aussage beheben will. OpenAI behauptete, kein normaler Benutzer würde ChatGPT auf diese Weise verwenden.

Doch während NYT die Taktiken verteidigte, mit denen ChatGPT dazu veranlasst wurde, gespeicherte Trainingsdaten – darunter mehr als 100 NYT-Artikel – herauszugeben, verwies NYT auf ChatGPT-Benutzer, die das Tool häufig zum Generieren ganzer Artikel zur Umgehung von Paywalls verwendet haben.

Laut der Akte hat NYT heute keine Ahnung, wie viele seiner Artikel zum Trainieren von GPT-3 und den nachfolgenden KI-Modellen von OpenAI verwendet wurden oder welche spezifischen Artikel verwendet wurden, da OpenAI „die Zusammensetzung der zum Training verwendeten Datensätze nicht öffentlich bekannt gegeben hat“. “ seine KI-Modelle. Anstatt eine Klage anzustrengen, habe NYT ChatGPT aufgefordert, Beweise zu finden, um das volle Ausmaß der Urheberrechtsverletzung des Tools zu ermitteln, argumentierte NYT.

Siehe auch  Sophos entdeckt CryptoRom-Betrüger, die ein ChatGPT-ähnliches KI-Chat-Tool verwenden und gefälschte Kryptowährungskonten hacken

Um herauszufinden, ob ChatGPT seine Urheberrechte an bestimmten Artikeln verletzt, hat NYT „Beispiele für das Auswendiglernen ermittelt, indem es GPT-4 mit den ersten paar Wörtern oder Sätzen von Times-Artikeln aufgefordert hat“, heißt es in der Gerichtsakte.

OpenAI hatte versucht zu argumentieren, dass „in der realen Welt die Leute weder ChatGPT noch ein anderes OpenAI-Produkt verwenden“, um präzisen Text aus Artikeln hinter Paywalls zu generieren. Aber über die „Verwendung von ChatGPT zur Umgehung von Paywalls“ wird „weithin berichtet“, argumentierte NYT .

„Nach Angaben von OpenAI hat The Times ein Fehlverhalten begangen, indem sie den Diebstahl von urheberrechtlich geschützten Inhalten der Times durch OpenAI aufgedeckt hat“, heißt es in der Gerichtsakte von NYT. „Die wahre Beschwerde von OpenAI betrifft nicht die Art und Weise, wie die Times ihre Untersuchung durchgeführt hat, sondern das, was diese Untersuchung zutage gefördert hat: dass die Beklagten ihre Produkte durch das Kopieren der Inhalte der Times in einem beispiellosen Ausmaß entwickelt haben – eine Tatsache, die OpenAI nicht bestreiten wird und auch nicht bestreiten kann.“

NYT lehnte die Bitte von Ars um einen Kommentar ab. OpenAI reagierte nicht sofort auf die Bitte von Ars um einen Kommentar.

ChatGPT-Benutzer umgehen Paywalls

Laut der Gerichtsakte der NYT verletzten ChatGPT-Ausgaben zunächst nur das Urheberrecht, indem sie „Kopien und/oder Derivate von Times-Werken zeigten, die zur Erstellung des Modells kopiert wurden“. Doch dann, im Mai 2023, wurde ein „Browse By Bing“-Plug-in in ChatGPT eingeführt, das „ChatGPT ermöglichte, Inhalte abzurufen, die über das hinausgingen, was im Trainingsdatensatz des zugrunde liegenden Modells enthalten war“, und verletzte das Urheberrecht, indem „synthetische Suchergebnisse angezeigt wurden, die Times umschreiben“. Werke werden als Reaktion auf Benutzersuchanfragen in Echtzeit abgerufen und kopiert.

Siehe auch  Nutzen Kinder ChatGPT für Schulprojekte?

Diese Funktion ermöglichte es ChatGPT-Benutzern, Paywalls zu umgehen und auf neuere Inhalte von Anbietern wie NYT zuzugreifen, was dazu führte, dass OpenAI im vergangenen Juli „Browse By Bing“ vorübergehend deaktivierte.

„Wir haben herausgefunden, dass die Browsing-Beta gelegentlich Inhalte auf eine Art und Weise anzeigen kann, die wir nicht möchten, z. B. wenn ein Benutzer gezielt nach dem Volltext einer URL fragt, kann es sein, dass diese Anfrage unbeabsichtigt erfüllt wird“, so OpenAI Hilfeseite sagte. „Wir deaktivieren vorübergehend die Funktion „Durchsuchen“, während wir das Problem beheben.“

Die Entscheidung von OpenAI, diese Funktion zu deaktivieren, verärgerte einige Benutzer, die ChatGPT zur Umgehung von Paywalls verwendeten. In einem ChatGPT-SubredditTausende wurden auf einen Beitrag aufmerksam, der auf die unbeabsichtigte Funktion aufmerksam machte, und kommentierten: „Wow, so nützlich!“ und scherzhaft: „Genieße es, solange es hält.“

Auf einer OpenAI Community-Seitebeschwerte sich ein zahlender ChatGPT-Benutzer darüber, dass OpenAI „gegen die zahlenden Benutzer von ChatGPT Plus arbeitet. Dieses Mal nehmen sie das Surfen weg, weil es den Inhalt einer Website liest, nach der der Benutzer fragt? Bitte, das ist es, was ich für Plus bezahle.“ für.“

„Ich weiß, dass es keinen Sinn hat, sich zu beschweren, weil OpenAI ChatGPT 4 zunehmend ‚kastrieren‘ wird“, fuhr der ChatGPT-Benutzer fort, „aber da ist meine Schimpftirade.“

NYT argumentierte in der Klage, dass öffentliche Berichte über Benutzer, die sich an ChatGPT wenden, um Paywalls zu umgehen, „der Behauptung von OpenAI widersprechen, dass seine Produkte nicht zur Bereitstellung von Paywall-geschützten Inhalten verwendet wurden, was die Notwendigkeit einer Offenlegung“ und nicht einer Abweisung unterstreicht.

Siehe auch  OpenAI hat seine Nutzungsrichtlinie stillschweigend überarbeitet, was möglicherweise die Tür für militärische KI-Anwendungen öffnet | TechNews Technology News

[ad_2]

5/5 - (277 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein