Die US-amerikanische Komikerin und Autorin Sarah Silverman sowie die Autoren Christopher Golden und Richard Kadri Aufschlag verklagte den Entwickler des chatgpt-Chatbots – OpenAI – und die Meta Corporation (als extremistisch anerkannt und in der Russischen Föderation verboten).

„Einige der Daten in den Texten sind falsch, aber es ist dennoch klar, dass ChatGPT den Inhalt bestimmter Werke im Trainingsdatensatz verwendet“, heißt es in der Klage.

Die Kläger behaupten, dass Modelle der künstlichen Intelligenz (KI) an ihren Arbeitsplätzen trainiert wurden. Die Werke der Autoren stammten von Raubkopien, die „schon lange für das KI-Training genutzt wurden“.

Den Autoren zufolge stimmten sie der Verwendung ihrer urheberrechtlich geschützten Bücher als Lehrmaterial für ChatGPT nicht zu. Meta-Entwickler nutzten die Arbeiten der Autoren, um LLaMA-Sprachmodelle (Large Language Model Meta AI) zu trainieren.

Eine weitere OpenAI-Klage

Ende Juni reichte die Anwaltskanzlei Clarkson eine Sammelklage gegen OpenAI wegen Identitätsdiebstahls ein. In der Klage mit 15 Anklagepunkten führten die Anwälte Verletzung der Vertraulichkeit, Fahrlässigkeit aufgrund mangelnden Schutzes personenbezogener Daten und Diebstahl durch die illegale Beschaffung großer Mengen personenbezogener Daten zum Training ihrer Modelle an.

Darüber hinaus nutzte OpenAI die persönlichen Daten von Hunderten Millionen Social-Media-Nutzern. Somit standen dem Entwickler 300 Milliarden Wörter zur Verfügung, um den Chatbot zu trainieren. Und das Unternehmen „tat dies heimlich und ohne Registrierung als Datenlieferant, wie es das geltende Recht vorschreibt.“

ChatGPT-Konten wurden ins Darknet durchgesickert

Zuvor geriet OpenAI in einen weiteren Skandal: Experten der Group-IB fanden 101.134 ChatGPT-Konten in den Protokollen, die Cyberkriminelle im Dark Web zum Verkauf angeboten hatten. Analysten behaupten, dass die Daten mithilfe von Viren gestohlen wurden, die auf den PCs des Opfers nach Informationen suchen.

Siehe auch  Künstliche Intelligenz: ChatGPT lernt das Sehen

Eine der Ursachen für Datenlecks ist der Einsatz eines Chatbots am Arbeitsplatz. Der Chatbot zeichnete einen Verlauf der Benutzeranfragen und -antworten auf, sodass die Angreifer, die die Protokolle gestohlen haben, die gesamte Korrespondenz des Opfers mit ChatGPT sehen können.

Haftungsausschluss

Alle auf unserer Website enthaltenen Informationen werden nach Treu und Glauben und objektiv veröffentlicht und dienen ausschließlich Informationszwecken. Der Leser trägt die alleinige Verantwortung für alle Handlungen, die er aufgrund der auf unserer Website erhaltenen Informationen vornimmt.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein