Ein Montagsbericht von chatgpt-is-sending-him-conversations-from-unrelated-ai-users/“>Ars Technica hob einen Fall hervor, bei dem der virale Chatbot von OpenAI, ChatGPT, private Gespräche, einschließlich persönlicher Daten und Passwörter anderer, unbekannter Benutzer, durchsickerte.

Mehrere von einem Benutzer geteilte Screenshots zeigten mehrere Sätze von Benutzernamen und Passwörtern, die offenbar mit einem Support-System verbunden waren, das von Apothekenmitarbeitern verwendet wurde.

Die Person nutzte ChatGPT-4.

Verwandt: Bericht enthüllt die dramatischen Auswirkungen, die KI bald auf die globalen Energiereserven haben könnte

Das durchgesickerte private Gespräch schien einen Mitarbeiter zu zeigen, der versuchte, Fehler bei einer App zu beheben; Der Name der App und die Store-Nummer, in der das Problem aufgetreten ist, wurden in der durchgesickerten Konversation erwähnt.

„Ich habe eine Anfrage gestellt (in diesem Fall Hilfe bei der Suche nach cleveren Namen für Farben in einer Palette) und als ich einen Moment später zum Zugriff zurückkehrte, bemerkte ich die zusätzlichen Konversationen“, sagte der Benutzer zu Ars Technica. „Sie waren nicht da, als ich ChatGPT gestern Abend verwendet habe (ich bin ein ziemlich starker Benutzer). Es wurden keine Anfragen gestellt – sie sind nur in meinem Verlauf aufgetaucht und stammen mit Sicherheit nicht von mir (und ich glaube auch nicht, dass sie vom selben Benutzer stammen).“

Auch andere zufällige Gespräche wurden an den Benutzer durchgesickert, wobei eines die Details einer noch zu veröffentlichenden Forschungsarbeit enthielt und ein anderes den Namen einer Präsentation.

„ChatGPT ist nicht sicher. Punkt“, KI-Forscher Gary Marcus sagte als Reaktion auf den Bericht. „Wenn Sie etwas in einen Chatbot eingeben, ist es wahrscheinlich am sichersten, davon auszugehen, dass (sofern nicht anders garantiert) das Chatbot-Unternehmen möglicherweise anhand dieser Daten trainiert; diese Daten könnten an andere Benutzer weitergegeben werden.“

Siehe auch  ChatGPT weiß, wie man chattet und beobachtet und entwickelt sich zu dem Ziel, „so schlau wie Menschen“ zu sein.

Er fügte hinzu, dass dasselbe Unternehmen diese Daten zusätzlich verkaufen oder diese Daten verwenden könnte, um Anzeigen gezielt an Benutzer zu richten. Er sagte dass „wir uns über (große Sprachmodelle) Hypertargeting-Anzeigen auf subtile Weise Gedanken machen sollten.“

Obwohl OpenAI Datenschutzrichtlinie enthält keine Erwähnung gezielter Werbung, es heißt jedoch, dass das Unternehmen personenbezogene Daten möglicherweise an Anbieter und Dienstleister weitergibt. In der Richtlinie heißt es außerdem, dass personenbezogene Daten anonymisiert und aggregiert werden dürfen, die das Unternehmen dann möglicherweise an Dritte weitergibt.

OpenAI teilte Ars Technica mit, dass es die Datenlecks untersuche, reagierte jedoch nicht auf die Bitte von TheStreet um einen Kommentar zu dem Bericht.

Verwandt: Taylor Swift ist das jüngste Opfer des „ekelhaften“ KI-Trends

Weitere Datenschutzprobleme für ChatGPT

Dies geschah am selben Tag, an dem die italienische Datenschutzbehörde Garante OpenAI mitteilte, dass ChatGPT möglicherweise gegen eine oder mehrere Datenschutzbestimmungen verstößt.

Die Garante hat ChatGPT letztes Jahr wegen Verstoßes gegen die Datenschutzbestimmungen der Europäischen Union (EU) verboten, den Chatbot jedoch wieder eingeführt, nachdem OpenAI eine Reihe von Korrekturen vorgenommen hatte, darunter das Recht der Benutzer, der Verwendung ihrer persönlichen Daten beim Training der OpenAI-Algorithmen nicht zuzustimmen.

Die Organisation sagte in einem Stellungnahme dass OpenAI 30 Tage Zeit hat, Gegenklagen bezüglich der angeblichen Verstöße einzureichen.

Verstöße gegen die EU's Datenschutz-Grundverordnung Die im Jahr 2018 eingeführte Datenschutz-Grundverordnung (DSGVO) könnte zu einer Geldstrafe von bis zu 4 % des Jahresumsatzes des Unternehmens aus dem Vorjahr führen.

OpenAI sagte in einer per E-Mail verschickten Erklärung, dass es der Ansicht sei, dass seine Praktiken weiterhin im Einklang mit der DSGVO und anderen Datenschutzgesetzen stünden, und fügte hinzu, dass das Unternehmen eine „konstruktive Zusammenarbeit“ mit der Garante plane.

Siehe auch  ChatGPT ist keine „künstliche Intelligenz“. Es ist Diebstahl.

„Wir wollen, dass unsere KI etwas über die Welt lernt, nicht über Privatpersonen“, sagte ein OpenAI-Sprecher. „Wir arbeiten aktiv daran, personenbezogene Daten zu reduzieren, indem wir unsere Systeme wie ChatGPT trainieren, das auch Anfragen nach privaten oder sensiblen Informationen über Personen ablehnt.“

Kontaktieren Sie Ian mit KI-Geschichten per E-Mail, [email protected] oder Signal 732-804-1223.

Verwandt: Erfahrener Fondsmanager wählt Lieblingsaktien für 2024 aus

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein