OpenAI beschuldigt die New York Times Company, jemanden dafür zu bezahlen, die künstliche Intelligenz chatgpt zu „hacken“, damit sie in ihren Zeitungsartikeln genau die gleichen Absätze produziert. Was OpenAI als „Cracking“ bezeichnet, bedeutet wahrscheinlich: sich ganz normal einloggen und nervige Fragen stellen.

Im Dezember letzten Jahres verklagte die New York Times OpenAI und seinen Unterstützer Microsoft und beschuldigte beide Parteien, den Inhalt ihrer Website ohne Erlaubnis zum Trainieren großer Sprachmodelle gecrawlt zu haben. Die Klage enthält Beweise dafür, dass ChatGPT in der Lage war, ganze Artikel der New York Times auf der Grundlage der von Benutzern übermittelten Tipps zu reproduzieren.

Die New York Times glaubt, dass Benutzer der OpenAI-Technologie (die bereits von Microsoft in seinem Software- und Cloud-Computing-Imperium verwendet wird) die Paywall der New York Times umgehen können, indem sie den Chatbot bitten, Inhalte für Nachrichtenberichterstattung bereitzustellen und den Artikel kostenlos zu lesen, wodurch die Times meldete Verluste bei den Abonnementeinnahmen.

Allerdings schlug OpenAI diese Woche zurück und forderte das Gericht auf, den Fall abzuweisen. OpenAI glaubt, dass die von der New York Times vorgelegten Beweise „ein langer und weit verbreiteter Kompromissversuch gegen OpenAI-Modelle zu sein scheinen“ und bestreitet, dass ChatGPT es Menschen ermöglichen kann, Paywalls zu umgehen, und fügt hinzu, dass Menschen im Allgemeinen keine Chatbots verwenden, um veröffentlichte Artikel zu lesen.

„In der realen Welt verwenden die Leute im Allgemeinen weder ChatGPT noch ein anderes OpenAI-Produkt für diesen Zweck“, sagte OpenAI. „Das können sie nicht. Im Allgemeinen können die Leute ChatGPT nicht verwenden, um Artikel der New York Times bereitzustellen.“ Stattdessen argumentierten die Anwälte von OpenAI, dass die New York Times ihren Chatbot missbraucht habe, indem sie die Software dazu gebracht habe, Trainingsdaten auszuspucken, zu der offenbar niemand außer den „listigen Prompt-Word-Ingenieuren“ der Times in der Lage zu sein schien.

Siehe auch  Zaobao | Windows wird das ChatGPT-Plug-in unterstützen / Stefanie Sun: Kann nicht mit KI konkurrieren / Activision Blizzard sagte, es werde sich „auf dem chinesischen Markt engagieren“

OpenAI konterte mit den Worten: „Die Wahrheit wird im Laufe dieses Falles ans Licht kommen, nämlich dass die New York Times andere dafür bezahlt hat, die Produkte von OpenAI zu „hacken“ … Sie taten dies nur, indem sie eine Schwachstelle ausnutzten (die OpenAI zu beheben versprach). und die Verwendung einer Methode, die gegen die Nutzungsbedingungen von OpenAI verstößt. Dies kann durch irreführende Eingabeaufforderungen geschehen.“ OpenAI sagte, es habe Zehntausende Versuche gedauert, bis ChatGPT einen Absatz mit wörtlichem Text generieren konnte.

Ian Crosby, Partner bei Susman Godfrey, dem Chefanwalt der New York Times, bezeichnete die „Eindringungsvorwürfe“ von OpenAI in einer Erklärung gegenüber den Medien als „lächerlich“.

„OpenAI wird OpenAI-Produkte verwenden, um Beweise dafür zu finden, dass es urheberrechtlich geschützte Werke der New York Times gestohlen und kopiert und dies fälschlicherweise als ‚Einbruch‘ dargestellt hat“, sagte er. „Und genau das haben wir gefunden. Tatsächlich ist das Ausmaß von OpenAIs.“ Plagiate waren weitaus größer. Mehr als 100 Beispiele wurden in Gerichtsverfahren vorgebracht.“

Sogenannte „Hint-Injection“-Angriffe ermöglichen es großen Sprachmodellen, Schutzmaßnahmen zu umgehen, die verhindern sollen, dass sie illegale oder anstößige Inhalte generieren. OpenAI scheint der New York Times vorgeworfen zu haben, diese Angriffsmethode zu nutzen.

Gleichzeitig argumentierte Crosby, dass die Behauptungen von OpenAI gegenüber der New York Times bestätigten, dass das von Sam Altman geleitete Labor Benutzereingabeaufforderungen und Ausgabeantworten überwachte. Um ehrlich zu sein, ist das nicht verwunderlich, wenn man bedenkt, dass das Startup erst letzte Woche damit prahlte, dass es Konten aus China, dem Iran, Russland und Nordkorea wegen angeblichen Missbrauchs seines generativen Modellbaukastens entdeckt und gesperrt habe.

Siehe auch  Es wird berichtet, dass Apple das künstliche Intelligenztool „Apple GPT“ entwickelt, das möglicherweise mit ChatGPT und Bard vergleichbar ist!

Wir weisen darauf hin, dass die Datenschutzrichtlinie von OpenAI besagt, dass das Unternehmen Anfragen und die Nutzung seines Dienstes aus verschiedenen Gründen überwacht, unter anderem (je nach Einstellungen und Zahlungsplänen) zur Schulung zukünftiger Modelle.

Dennoch äußerte Crosby, ein Anwalt der New York Times, seine Unzufriedenheit. „Die Antwort von OpenAI zeigt auch, dass sie Benutzeranfragen und -ausgaben verfolgen, was besonders überraschend ist, da sie zuvor behauptet haben, dies nicht zu tun. Wir freuen uns darauf, dieses Problem während der Entdeckungsphase eingehender zu untersuchen“, sagte er.

Crosby stellte auch die Argumente der ChatGPT-Macher vor Gericht in Frage, dass die Times zu lange gebraucht habe, um ihre Beschwerde einzureichen, sowie die allgemeine Position von OpenAI, dass sie nichts falsch gemacht hätten.

„OpenAI blieb geheim und verheimlichte absichtlich die Funktionsweise seiner Produkte und behauptet nun, es sei zu spät, eine Verletzungsklage einzureichen oder es zur Verantwortung zu ziehen. Wir sind anderer Meinung. Insbesondere bestreitet OpenAI nicht, dass es an der Schulung seiner jüngsten und aktuellen Modelle beteiligt war.“ . Reproduktion von Arbeiten der New York Times ohne Genehmigung.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein