Was du wissen musst

  • OpenAI steht unter Beobachtung, nachdem chatgpt falsche Informationen über Personen weitergegeben hat.
  • Die in der EU ansässige gemeinnützige Datenschutzorganisation NOYB reichte die Beschwerde gegen das Unternehmen ein und führte an, dass es sich seiner Unfähigkeit bewusst sei, die von ChatGPT generierten falschen Informationen zu korrigieren, sich aber offenbar nicht darum kümmerte.
  • Die Organisation möchte, dass die Regulierungsbehörde die Operationen von OpenAI untersucht und sie dazu zwingt, detaillierte Informationen darüber bereitzustellen, wie sie die Daten von Personen verwendet.

OpenAI steht erneut auf dem Prüfstand, nachdem die in der EU ansässige gemeinnützige Datenschutzorganisation NOYB eine neue Beschwerde bei der österreichischen Datenschutzbehörde (DPA) eingereicht hat, in der sie sich auf die „Halluzinationsepisoden“ von ChatGPT und seine Unfähigkeit, irreführende, von der KI generierte Informationen über Personen zu korrigieren, beruft (via Quarz).

Wie Sie vielleicht wissen, ist Chatbot-Halluzination kein neues Phänomen in der KI-Landschaft. Wir haben einige dieser Episoden während der Einführung von Microsoft Copilot (ehemals Bing Chat) gesehen, was die Benutzer glauben ließ, dass die Technologie immer dümmer wird.

Die Beschwerde von NOYB basiert auf der Datenschutz-Grundverordnung (DSGVO) der EU, die kontrolliert und regelt, wie Tools wie ChatGPT mit den personenbezogenen Daten umgehen, die sie von Personen sammeln. Die Organisation gab an, dass OpenAI offen zugab, dass es ungenaue Informationen, die mit seinem ChatGPT-Tool generiert wurden, nicht korrigieren kann.

Es wurde auch darauf hingewiesen, dass OpenAI nicht erklären kann, woher ChatGPT seine Daten bezieht oder welche persönlichen Daten es von Benutzern sammelt und speichert. Seltsamerweise gab die Organisation an, dass der ChatGPT-Hersteller sich dieses Problems bewusst war, sich aber offenbar nicht darum kümmerte.

Siehe auch  Zukunft des Lernens: 12 Möglichkeiten, wie die ChatGPT-Implementierung die Bildung neu gestalten wird

Die DSGVO ermöglicht es Benutzern mit Sitz in der EU, Änderungen an ungenauen Informationen über sie zu beantragen, die durch das Tool generiert wurden. Daher kann OpenAI diesem Recht nicht nachkommen und ist daher nicht konform, was die Grundlage für die Beschwerde von NOYB darstellt.

Laut der Datenschutzanwältin von NOYB, Maartje de Graaf:

„Die Verpflichtung, Zugriffsanfragen nachzukommen, gilt für alle Unternehmen. Es ist eindeutig möglich, Aufzeichnungen über die verwendeten Schulungsdaten zu führen und zumindest eine Vorstellung von den Informationsquellen zu haben. Es scheint, dass mit jeder „Innovation“ eine andere Gruppe von Unternehmen entsteht ist der Meinung, dass seine Produkte nicht dem Gesetz entsprechen müssen.“

Was ist der plausible Weg für OpenAI?

(Bildnachweis: Daniel Rubino)

Sam Altman von OpenAI gab zu, dass die Entwicklung von Tools wie ChatGPT ohne urheberrechtlich geschützte Inhalte unmöglich ist. Und wie Sie vielleicht bereits wissen, befinden sich Microsoft und OpenAI in mehreren Rechtsstreitigkeiten wegen Urheberrechtsverletzungen.

Ohne Zugriff auf urheberrechtlich geschützte Informationen sind KI-generierte Antworten auf Anfragen nicht so detailliert und genau. Die Organisation gibt an, dass die Aktionen von OpenAI „inakzeptabel“ seien, da es ChatGPT verwaltet, jedoch nicht in der Lage sei, vom Tool generierte ungenaue Informationen zu korrigieren oder zu erklären, woher es seine Daten bezieht.

NOYB möchte, dass die DPA die Operationen von OpenAI untersucht, einschließlich der Art und Weise, wie es Daten verarbeitet und seine Modelle trainiert. Darüber hinaus möchte die Organisation, dass die Datenschutzbehörde OpenAI dazu zwingt, Benutzern den Zugriff auf Daten zu ermöglichen und so ein klares Bild der persönlichen Daten zu zeichnen, die das Unternehmen von Benutzern sammelt, und vieles mehr.

Siehe auch  Beste ChatGPT-Plugins für Forschungsarbeiten im Jahr 2024

Wenn OpenAI diese Anforderungen nicht erfüllt, könnte ihm eine saftige Strafe von 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes drohen. Nicht zu vergessen sind die zusätzlichen Kosten, wenn sich betroffene Nutzer für einen Schadensersatz entscheiden.

5/5 - (100 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein