[ad_1]

OpenAI hat kürzlich eine Funktion namens „Memory“ für chatgpt eingeführt. Diese Funktion bedeutet, dass ChatGPT sich alle Chats merken kann, die es mit einem Benutzer geführt hat. OpenAI sagt, dass dies dem Chatbot helfen wird, Benutzer besser zu verstehen und die Genauigkeit zu verbessern. Allerdings machen sich manche Menschen Sorgen um die Privatsphäre.

In der Vergangenheit gab es Probleme mit der Art und Weise, wie OpenAI mit Daten umgeht. Beispielsweise hat Italien ChatGPT einst gestoppt, weil das Unternehmen personenbezogene Daten verwendete, ohne die Benutzer zu fragen, was gegen Datenschutzgesetze verstieß. Außerdem trat ein Problem auf, als Samsung-Mitarbeiter bei der Nutzung von ChatGPT geheime Unternehmensinformationen weitergaben.

OpenAI hat eine Richtlinie, die sagt Es kann sich Benutzergespräche ansehen, um seine KI zu verbessern. Davi Ottenheimer, ein Datenschutzexperte, hält den Ansatz von OpenAI im Umgang mit Benutzerdaten für nicht richtig. Er glaubt, dass die Bezeichnung „Speicher“ irreführend ist, da sie etwas anderes suggeriert als das, was sie wirklich ist – langfristige Datenspeicherung. Im Gegensatz zum menschlichen Gedächtnis, das verblasst, oder zum Computerspeicher, der gelöscht werden kann, kann das Speichern von Daten auf diese Weise zu unerwarteten Datenschutzproblemen führen. Auch wenn OpenAI sagt, dass Benutzer ihre Chats löschen können, hat Ottenheimer Zweifel.

Ottenheimer weist darauf hin, dass OpenAI mit der falschen Idee für KI begann und es ihnen nun schwerfällt, diese zu ändern. Er weist darauf hin, dass KI nach einer Weile unerwünschte Verhaltensweisen wie Voreingenommenheit zeigen kann. Seiner Meinung nach wäre ein besseres System eines, das nach jeder Interaktion alles vergisst und so die Privatsphäre besser schützt.

Siehe auch  China hat ein Analogon von ChatGPT eingeführt – Panorama

Er spricht auch darüber, wie wichtig es ist, dass Menschen die Kontrolle über ihre Daten haben. Wenn Sie derzeit KI-Dienste nutzen, stecken Sie in deren System fest und haben keine andere Wahl. Ottenheimer ist der Meinung, dass Daten Eigentum der betreffenden Person sein sollten und nur dann weitergegeben werden sollten, wenn diese damit einverstanden ist.

Er kritisiert, dass OpenAI nicht wirklich offen sei, da es schwierig sei zu wissen, was mit Ihren Daten passiert. Dies kann zu Problemen wie dem Missbrauch von Chatverläufen führen.

Vorschriften können zur Kontrolle der KI beitragen, indem sie Unternehmen zur Zahlung von Geldstrafen zwingen oder ihren Ruf schädigen, wenn sie gegen die Regeln verstoßen. Ottenheimer ist der Meinung, dass sich die Branche mehr auf Integritätsverletzungen konzentrieren sollte, die sowohl dem Unternehmen als auch dem Einzelnen schaden, und nicht nur auf Datenschutzverletzungen.

Letztendlich ist er davon überzeugt, dass strengere Vorschriften zu Integritätsverletzungen erforderlich sind und hoffentlich bald eingeführt werden. Auf diese Weise können Unternehmen sorgfältiger mit Daten umgehen und die Privatsphäre der Benutzer schützen.

Openai C D

Bild: DIW-Aigen

Lesen Sie weiter: KI-generierte Nachrichtenseiten veröffentlichen gefälschte Berichte schneller als je zuvor

[ad_2]

5/5 - (332 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein