Die österreichische Datenschutzbehörde NOYB (None of Your Business) hat angekündigt, dass sie eine Beschwerde gegen das beliebte KI-Tool ChatGTP wegen der Bereitstellung falscher personenbezogener Daten ohne Möglichkeit zur Korrektur einreicht.

chatgpt halluziniert ständig – und nicht einmal OpenAI kann es stoppen“, NOYB sagte in einer Stellungnahme.

In der Fachsprache ist Halluzinieren ein Fachbegriff für den Fall, dass ein KI-Programm falsche Informationen liefert.

NOYB erklärte in einer Erklärung:

Das Problem besteht darin, dass die Anwendung laut OpenAI selbst nur „Antworten auf Benutzeranfragen generiert, indem sie die nächstwahrscheinlichsten Wörter vorhersagt, die als Antwort auf jede Eingabeaufforderung erscheinen könnten“. Mit anderen Worten: Obwohl das Unternehmen über umfangreiche Trainingsdaten verfügt, kann derzeit nicht garantiert werden, dass ChatGPT den Benutzern tatsächlich sachlich korrekte Informationen anzeigt. Im Gegenteil, generative KI-Tools sind dafür bekannt, regelmäßig zu „halluzinieren“, was bedeutet, dass sie einfach Antworten erfinden.

Die Gruppe zitiert a New York Times Artikel, der behauptet, dass Chatbots – Computerprogramme, die Gespräche mit Menschen simulieren sollen – in 3 % der Fälle bis zu 27 % falsche Informationen liefern.

Wenn ein Chatbot personenbezogene Daten „halluziniert“, verstößt dies gegen die Datenschutzgesetze der EU. Nach EU-Recht müssen personenbezogene Daten korrekt sein und Unternehmen, die personenbezogene Daten bereitstellen, müssen nachweisen können, welche Daten sie über eine Person besitzen und aus welcher Quelle diese Informationen stammen. Wenn sich herausstellt, dass sie falsch sind, müssen die Daten korrigiert werden.

Maartje de Graaf, Datenschutzanwältin bei NOYB, sagte:

Das Erfinden falscher Informationen ist an sich schon recht problematisch. Doch wenn es um falsche Angaben zu Personen geht, kann das schwerwiegende Folgen haben. Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT bei der Verarbeitung von Daten über Einzelpersonen mit EU-Recht in Einklang zu bringen. Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, kann es nicht zur Generierung von Daten über Einzelpersonen verwendet werden. Die Technik muss den gesetzlichen Vorgaben folgen, nicht umgekehrt.

Der Beschwerdeführer in der NOYB-Anmeldung fragte ChatGTP nach seinem Geburtstag und der Chatbot antwortete mit dem falschen Datum. Der Beschwerde zufolge ist OpenAI, die Muttergesellschaft des Chatbots, nicht angemessen auf die Aufforderung eingegangen, die Informationen zu aktualisieren oder Informationen darüber bereitzustellen, woher die Daten stammen. Stattdessen hätte der Chatbot laut NOYB antworten müssen, dass er nicht über genügend Daten verfüge, um die Frage genau zu beantworten.

Siehe auch  5 ChatGPT-Aufforderungen zur Erstellung eines überzeugenden Elevator Pitch

Der Rand gemeldet Letztes Jahr hatte OpenAI seine Richtlinien aktualisiert, um Anfragen zur Änderung oder Löschung personenbezogener Daten zu erleichtern. Analysten sind sich jedoch nicht sicher, ob winzige Datenstücke in großen, komplexen Sprachlernmodellen wie ChatGTP extrahiert und korrigiert werden können.

Dies ist bei weitem nicht die erste rechtliche Herausforderung, mit der OpenAI in Bezug auf personenbezogene Daten konfrontiert ist. The Verge berichtet, dass ein Bürgermeister in Australien damit gedroht hat, das KI-Unternehmen wegen Verleumdung zu verklagen, weil sein Chatbot fälschlicherweise behauptete, er habe wegen Bestechung im Gefängnis gesessen.

Im vergangenen Jahr verbot die italienische Datenschutzbehörde den Dienst im Land vorübergehend und begründete dies mit vier ähnlichen Bedenken, nämlich der Bereitstellung unrichtiger personenbezogener Daten. Darüber hinaus wurde festgestellt, dass OpenAI die Benutzer nicht über seine Datenerfassungspraktiken informierte, nach EU-Recht keine rechtliche Rechtfertigung für die Verarbeitung personenbezogener Daten hatte und Kinder unter 13 Jahren nicht angemessen an der Nutzung des Dienstes hinderte. Es ordnete an, dass OpenAI sofort aufhören soll, die von Italienern gesammelten personenbezogenen Daten zum Training seines Chatbots zu verwenden.

Laut Verge wurde ChatGPT in Italien wieder online zugelassen, nachdem OpenAI einige oberflächliche Änderungen vorgenommen hatte. Auch Spanien, Frankreich und Deutschland untersuchen die Verwendung personenbezogener Daten durch OpenAI.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein