Die vielbeachtete Beschwerde der New York Times dagegen veranlasst OpenAI zu einer öffentlichen Reaktion. Und der Ersteller von chatgpt hat keine Angst davor, die lästigen Dateien herauszubringen.
Entsprechend New York TimesOffenbar hat OpenAI seine Veröffentlichungen und Online-Archive geplündert, um das Large Language Model (LLM), auf dem ChatGPT basiert, zu füttern und zu trainieren. Der renommierte Presseverlag schätzt, dass Millionen von Artikeln ohne seine Genehmigung verwendet wurden. Dies brachte OpenAI eine formelle Beschwerde ein, mit „ Schäden in Milliardenhöhe ».
Lesen Sie: Die New York Times greift OpenAI und Microsoft an: Sie haben angeblich die Zeitung wegen ihrer KI geplündert
OpenAI zerlegt nicht. In einem Blogbeitrag wehrt sich das Unternehmen gegen etwaige Plünderungen und spricht von einem „Right to Quote“ („Fair Use“)., ein Konzept, das unter bestimmten Voraussetzungen die Nutzung urheberrechtlich geschützter Werke erlaubt. Auch der amerikanische „Fair Use“ ist flexibler als der in Frankreich praktizierte.
ChatGPT-Aufstoßen
Dieses Prinzip, das es OpenAI ermöglicht, seine KI-Modelle zu trainieren, wird von einer großen Anzahl von Organisationen und Unternehmen unterstützt, die OpenAI unterstützen, sei es in den Vereinigten Staaten oder in der Europäischen Union. Das Unternehmen erinnert außerdem daran, dass es ein System eingeführt hat, das es Herausgebern ermöglicht, OpenAI daran zu hindern, ihre Inhalte zu schlucken. DER JETZT hat es im August 2023 verabschiedet.
Die amerikanische Tageszeitung kritisiert ChatGPT auch dafür, dass es seine Inhalte „herauswürgt“, ohne sie zumindest zu verändern. Ein Vorwurf des reinen Kopierens, der von OpenAI sicherlich bestätigt wird, aber es wäre ein Fehler.“ selten » die das Unternehmen beseitigen möchte. „ Wir haben daher Maßnahmen ergriffen, um das unfreiwillige Auswendiglernen zu begrenzen und ein Aufstoßen der Ergebnisse unserer Modelle zu verhindern. “, versichert sie.
OpenAI bedauert jedoch, dass die JETZT weigerte sich, Beispiele dieser berühmten Aufstoßungen zu liefern. Und schlimmer noch, das Unternehmen behauptet, dass die Tageszeitung die Anfragen absichtlich manipuliert habe: „ oft mit langen Auszügen aus Artikeln “, um ChatGPT dazu zu bringen, dieselbe Kopie erneut auszustoßen. „ Selbst bei der Verwendung solcher Aufforderungen verhalten sich unsere Modelle im Allgemeinen nicht in der von der New York Times unterstellten Art und Weise, was darauf hindeutet, dass sie das Modell entweder zum Aufstoßen angewiesen oder ihre Beispiele aus vielen Versuchen ausgewählt haben », laut OpenAI.
Die beiden Unternehmen trafen sich mehrmals, um das Thema zu besprechen, zuletzt am 19. Dezember. OpenAI hatte dies vorgeschlagen Mal um an der Echtzeitanzeige von ChatGPT-Attributionen zu arbeiten – mit anderen Worten, der Bot würde Links zu den entsprechenden Artikeln anbieten, wie es bei Bing der Fall ist. Daraus wurde jedoch nichts und die Klage wurde Ende Dezember eingereicht.
Wir werden sehen, wie diese Geschichte möglicherweise hinter den Kulissen und mit einem Scheckbuch endet! OpenAI würde außerdem amerikanischen Verlagen und Medien mehrere Millionen Dollar anbieten, um (rückwirkenden?) Zugang zu ihren Artikeln zu erhalten.
Lesen Sie AI: OpenAI und apple zücken ihre Scheckbücher, um neue Klagen zu vermeiden
🔴 Um keine Neuigkeiten von 01net zu verpassen, folgen Sie uns auf google.com/publications/CAAqBwgKMJPsvAswoIfUAw?hl=fr&gl=FR&ceid=FR%3Afr“ target=“_blank“>Google Nachrichten et WhatsApp.
OpenAI