OpenAI sollte gemäß den Datenschutzbestimmungen der Europäischen Union für falsche Informationen, die wiederholt über Einzelpersonen durch den chatgpt-Chatbot mit künstlicher Intelligenz bereitgestellt werden, zur Rechenschaft gezogen werden, erklärte die Datenschutzgruppe Noyb in einer formellen Beschwerde bei der österreichischen Datenaufsichtsbehörde.
Die Organisation sagte, dass die bekannte Tendenz von KI-großen Sprachmodellen (LLMs), falsche Informationen zu erzeugen, bekannt als „Halluzination“, im Widerspruch zur Allgemeinen Datenschutzverordnung (DSGVO) der EU steht, die die Richtigkeit personenbezogener Daten verlangt.
Die Verordnung verlangt von Organisationen auch, dass sie auf Anfragen reagieren, um zu zeigen, welche Daten sie über Einzelpersonen besitzen, oder Informationen zu löschen, aber OpenAI sagte, dass es dazu nicht in der Lage sei, sagte Noyb.
„Es ist keine Option, einfach Daten über Einzelpersonen zu erfinden“, sagte die Gruppe in einer Erklärung.
False data
Der Beschwerdeführer in seinem Fall, eine Persönlichkeit des öffentlichen Lebens, habe festgestellt, dass ChatGPT bei der Frage nach seinem Geburtstag wiederholt falsche Angaben gemacht habe, anstatt den Benutzern mitzuteilen, dass das Unternehmen nicht über die erforderlichen Daten verfüge.
OpenAI sagt, dass ChatGPT einfach „Antworten auf Benutzeranfragen generiert, indem es die nächstwahrscheinlichsten Wörter vorhersagt, die als Antwort auf jede Eingabeaufforderung erscheinen könnten“ und dass „sachliche Genauigkeit“ ein „Bereich aktiver Forschung“ bleibt.
Das Unternehmen teilte Noyb (was für „None Of Your Business“ steht) mit, dass es nicht möglich sei, Daten zu korrigieren und keine Informationen über die verarbeiteten Daten einer Person, deren Quellen oder Empfänger bereitzustellen, was alles Anforderungen der DSGVO sei.
Noyb sagte, OpenAI habe ihm mitgeteilt, dass Informationsanfragen zu Einzelpersonen gefiltert oder blockiert werden könnten, dies würde jedoch dazu führen, dass alle Informationen über den Beschwerdeführer blockiert würden.
„Es scheint, dass mit jeder ‚Innovation‘ eine andere Gruppe von Unternehmen denkt, dass ihre Produkte nicht dem Gesetz entsprechen müssen“, sagte Noyb-Datenschutzanwältin Maartje de Graaf.
Zugangsvoraussetzung
Noyb forderte die österreichische Datenschutzbehörde auf, die Datenverarbeitung durch OpenAI und die Maßnahmen zur Gewährleistung der Richtigkeit der im Rahmen der LLMs von OpenAI verarbeiteten personenbezogenen Daten zu untersuchen und OpenAI anzuweisen, dem Zugriffsantrag des Beschwerdeführers nachzukommen und eine Geldbuße zu verhängen Sicherstellung zukünftiger Compliance.
Die italienische Datenschutzbehörde hat ChatGPT im vergangenen Jahr aufgrund von Bedenken hinsichtlich der Datenverarbeitung vorübergehend verboten und im Januar mitgeteilt, dass die Geschäftspraktiken des Unternehmens möglicherweise gegen die DSGVO verstoßen.
Damals sagte OpenAI, es sei davon überzeugt, dass „unsere Praktiken mit der DSGVO und anderen Datenschutzgesetzen im Einklang stehen und wir zusätzliche Schritte unternehmen, um die Daten und die Privatsphäre der Menschen zu schützen“.
Das Unternehmen sagte, es arbeite „aktiv“ daran, personenbezogene Daten in Schulungssystemen wie ChatGPT zu reduzieren, „das auch Anfragen nach privaten oder sensiblen Informationen über Personen ablehnt“.