Die New York Times wird OpenAI verklagen. Foto: Shutterstock
Es braut sich eine Klage zusammen, die ChatGPT dazu zwingen könnte, alle seine Daten zu löschen und von vorne zu beginnen New York Times Berichten zufolge erwägt die Zeitung, das generative KI-Tool zu verklagen.
Nach einer kürzlichen Aktualisierung seiner Nutzungsbedingungen, um zu verhindern, dass KI-Unternehmen die Inhalte zum Trainieren ihrer Modelle verwenden, hat das New York Times erwägt nun eine Klage gegen den ChatGPT-Entwickler OpenAI, als NPR gemeldet.
Der New York Times‘ Die Bedenken konzentrieren sich auf die Verwendung der urheberrechtlich geschützten Inhalte des Papiers durch OpenAI zum Trainieren des ChatGPT-Systems und auf das Potenzial der generativen KI-Plattform, dank der Verwendung dieser Originalinhalte zu einem direkten Konkurrenten zu werden.
Unter Berufung auf zwei Personen mit direkter Kenntnis der Situation sagte der NPR Bericht sagte, dass die New York Times und OpenAI führten Gespräche über eine Lizenzvereinbarung, diese Gespräche seien jedoch „umstritten“ geworden.
Den Quellen zufolge erwägt die Medienorganisation derzeit eine Klage gegen ChatGPT, um „die geistigen Eigentumsrechte“ zu schützen New York Times.
Eine solche Klage könnte der „bisher aufsehenerregendste Rechtsstreit um den Urheberrechtsschutz im Zeitalter der generativen KI“ sein. NPR gemeldet.
Wenn diese Klage weitergeführt wird und die New York Times erfolgreich ist, könnte OpenAI gezwungen sein, den Datensatz von ChatGPT vollständig zu löschen und wieder von vorne zu beginnen und nur autorisierte Inhalte zu verwenden.
OpenAI könnte außerdem mit einer Geldstrafe von bis zu 150.000 US-Dollar für jeden rechtsverletzenden Inhalt rechnen, den das Unternehmen zum Trainieren seines KI-Systems verwendet hat.
OpenAI würde wahrscheinlich den „fair use“-Einwand vertreten, wenn ein solcher Fall vor Gericht käme, was die Nutzung urheberrechtlich geschützter Werke ohne Erlaubnis in bestimmten Situationen erlaubt, wie zum Beispiel in der Lehre, bei der Kritik, bei der Recherche und bei der Berichterstattung über die Nachrichten.
Während New York Times Associated Press scheint rechtliche Schritte einzuleiten und hat kürzlich als eines der ersten Medienunternehmen einen Lizenzvertrag mit OpenAI für die Nutzung seiner Inhalte abgeschlossen. Die Bedingungen dieses Deals wurden nicht bekannt gegeben.
Der New York Times hat kürzlich seine Nutzungsbedingungen aktualisiert, um die Verwendung seiner Inhalte für die „Entwicklung von Softwareprogrammen, einschließlich, aber nicht beschränkt auf das Training eines Systems für maschinelles Lernen oder künstliche Intelligenz“ zu verhindern.
„Die Beteiligung an einer verbotenen Nutzung der Dienste kann zu zivil-, strafrechtlichen und/oder verwaltungsrechtlichen Strafen, Geldstrafen oder Sanktionen gegen den Nutzer und seine Unterstützer führen“, heißt es in den Nutzungsbedingungen.
Es ist nicht die erste Klage, mit der OpenAI wegen der Nutzung von Online-Inhalten zum Trainieren von ChatGPT konfrontiert ist.
Die Komikerin und Autorin Sarah Silverman hat kürzlich zusammen mit einer Reihe anderer hochkarätiger Autoren OpenAI wegen ähnlicher Bedenken verklagt.
In diesem Fall behauptet Silverman, dass ChatGPT eine digitale Version ihrer Memoiren verwendet habe, um sein System ohne Erlaubnis zu trainieren. Sie sagte, die Plattform habe das Exemplar des Buches aus einer illegalen Online-„Schattenbibliothek“ erhalten.
Laut Daniel Gervais, Co-Direktor des Programms für geistiges Eigentum an der Vanderbilt University, werden Urheberrechtsprobleme wie diese das Wachstum generativer KI-Tools beeinträchtigen.
„Das Urheberrecht ist ein Schwert, das mehrere Jahre lang über den Köpfen von KI-Unternehmen hängen wird, wenn sie nicht herausfinden, wie sie eine Lösung aushandeln können“, sagte Gervais NPR.
Auch Hollywood-Autoren streiken derzeit wegen der Besorgnis über den unethischen Einsatz von KI-Tools im Autorenzimmer.
In Australien hat die Bundesregierung gewarnt, dass ChatGPT und andere generative KI-Tools von Beamten nur in „Situationen mit geringem Risiko“ verwendet werden sollten und dass dies ein „inakzeptables Risiko“ darstellt.
Eine aktuelle Studie ergab, dass australische Unternehmen zwar viel häufiger als andere Länder generative KI-Plattformen nutzen, aber auch eher darüber nachdenken, diese am Arbeitsplatz vollständig zu verbieten.