Was du wissen musst

  • OpenAI und Microsoft stehen vor einer weiteren Klage im Zusammenhang mit künstlicher Intelligenz und Urheberrechtsverletzungen.
  • AlterNet, The Intercept und Raw Story reichten getrennte Klagen im südlichen Bezirk von New York ein.
  • In der Klage wird behauptet, dass chatgpt „wörtlich oder nahezu wörtlich urheberrechtlich geschützte journalistische Werke“ reproduziert, ohne die Quelle ordnungsgemäß anzugeben.
  • OpenAI und Microsoft waren bereits zuvor mit ähnlichen Ansprüchen konfrontiert, darunter einer Klage der New York Times.

Microsoft und OpenAI sind erneut Opfer einer Klage geworden. AlterNet, The Intercept und Raw Story haben im südlichen Bezirk von New York separate Klagen gegen ChatGPT eingereicht

„Zumindest zeitweise gibt oder hat ChatGPT Antworten an Benutzer bereitgestellt, die urheberrechtlich geschützte journalistische Werke wörtlich oder nahezu wörtlich wiedergeben, ohne in diesen Werken enthaltene Informationen zu Autor, Titel, Urheberrecht oder Nutzungsbedingungen anzugeben“, heißt es in der Klage .

Die Klage deutet darauf hin, dass ChatGPT Ergebnisse auf Anfragen zu aktuellen Ereignissen oder den Ergebnissen des investigativen Journalismus generiert, ohne auch Quellen anzugeben.

Obwohl Microsoft und OpenAI getrennte Unternehmen sind, besteht zwischen ihnen eine komplizierte Beziehung, die dazu führt, dass beide miteinander konkurrieren und zusammenarbeiten. Im Zusammenhang mit diesen Klagen ist die Tatsache von entscheidender Bedeutung, dass Microsoft die Rechenzentren gehostet hat, die für die Entwicklung von ChatGPT verwendet wurden. Darüber hinaus nutzt Microsofts Copilot (ehemals Bing Chat) OpenAI-Technologie und wurde ebenfalls beschuldigt, keine Quellinformationen aufgeführt zu haben.

Jetzt geht das schon wieder los

Die New York Times beschuldigte OpenAI und Microsoft im Dezember 2023 des Plagiats. (Bildnachweis: Daniel Rubino)

Dies ist nicht das erste Mal, dass Microsoft und OpenAI mit Klagen im Zusammenhang mit KI-generierten Inhalten konfrontiert werden. Die New York Times verklagte im Dezember 2023 sowohl Microsoft als auch OpenAI. Die Nachrichtenagentur behauptete, dass Artikel der New York Times zum Trainieren von Sprachmodellen verwendet wurden, die Microsoft Copilot und ChatGPT unterstützen.

Siehe auch  Surfshark VPN: Nutzung mit ChatGPT und unbegrenztem Streaming, das ist das Back-to-School-Angebot! 📍

In der Klage der New York Times wurde behauptet, dass OpenAI und die KI-Tools von Microsoft Inhalte der New York Times wörtlich reproduzieren könnten. OpenAI bestritt die Ansprüche wegen der Reproduktion von Inhalten und beantragte bei einem Bundesgericht die Abweisung der Klage. OpenAI behauptete, dass die New York Times einen Fehler ausgenutzt habe, um ChatGPT dazu zu bringen, Inhalte der Nachrichtenagentur zu reproduzieren.

Unabhängig davon, ob die Beschwerde der New York Times berechtigt ist, gibt es mehrere rechtliche Fragen rund um OpenAI. Unterscheidet sich beispielsweise ein menschlicher Künstler, der von anderen Künstlern beeinflusst wird, von einem KI-Modell, das von Künstlern lernt? Wenn ja, wie unterscheiden Sie ein wirklich originelles Werk von etwas, das von anderen Inhalten inspiriert ist? Und vielleicht am wichtigsten für diejenigen, die finanziell von KI betroffen sind: Was ist eine gerechte Entschädigung, wenn ein KI-Modell auf eine Arbeit trainiert und dann zur Nachbildung ähnlicher Arbeiten verwendet wird?

Microsoft verfügt über eine solide Erfolgsbilanz, wenn es darum geht, sich rechtlicher Prüfung zu stellen. Daher wird es interessant sein zu sehen, wie Copilot und verwandte KI-Technologie einer zunehmenden Zahl von Klagen standhalten.

5/5 - (283 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein