• chatgpt-Benutzer haben Bedenken hinsichtlich der Datenlecks durch den auf künstlicher Intelligenz basierenden Chatbot von OpenAI geäußert.
  • Zu den Datenlecks gehörten persönliche Daten, Gespräche mit dem Chatbot und Anmeldeinformationen.

Nach Berichten über durchgesickerte Gespräche über ChatGPT von OpenAI sind Bedenken hinsichtlich der Sicherheit und des Datenschutzes generativer KI-Tools gestiegen. Der Vorfall hat trotz der Bemühungen der Unternehmen, Schutzmaßnahmen einzurichten, Fragen zu Schwachstellen in KI-Systemen aufgeworfen. Offenbar wurden während der Sitzungen vertrauliche Daten, darunter Benutzernamen und Passwörter, an unabhängige Benutzer weitergegeben.

Es wird erwartet, dass die Leaks Details zu den Vorschlägen und Präsentationen eines anderen Benutzers enthielten, was einen schwerwiegenden Verstoß gegen die Datenschutzrichtlinien von OpenAI darstellt. Der Nutzerbeschwerde zufolge ereignete sich der Vorfall trotz starker Passwörter und Sicherheitsmaßnahmen.

Mehr sehen: ChatGPT wird von der italienischen Aufsichtsbehörde wegen Datenschutzverletzungen angeklagt

Laut OpenAI ist das Datenleck auf einen Hackerangriff auf kompromittierte Konten zurückzuführen, wobei die Konversation offenbar aus Sri Lanka stammt und nicht vom tatsächlichen Standort des Benutzers, Brooklyn in den USA. Dies ist nicht das erste Mal, dass OpenAI sich mit der Sicherheit befassen muss Bedenken der Nutzer. Im März 2023 wurde ein ChatGPT-Fehler festgestellt, der dazu führte, dass Benutzerzahlungsdaten durchsickerten.

In einem anderen Fall hat ChatGPT versehentlich Unternehmensgeheimnisse von Samsung preisgegeben, was zu einem internes Verbot auf dem Werkzeug. Der aktuelle Vorfall wird wahrscheinlich die Herausforderungen hervorheben, die mit der Verbesserung der Sicherheit und des Datenschutzes bei Technologien der künstlichen Intelligenz und großen Sprachmodellen verbunden sind. Führende Unternehmen für künstliche Intelligenz wie OpenAI, google und Anthropic müssen sich auf wachsame Sicherheitsvorkehrungen und spezifische Maßnahmen konzentrieren, um solche Risiken zu verhindern.

Siehe auch  Wie bekomme ich einen Job bei OpenAI, dem Schöpfer von ChatGPT?

Was halten Sie von Datensicherheitsproblemen bei KI-Technologie? Teilen Sie uns Ihre Meinung dazu mit LinkedInÖffnet ein neues Fenster , XÖffnet ein neues Fenster oder FacebookÖffnet ein neues Fenster . Wir würden uns freuen, von Ihnen zu hören!

Bildquelle: Shutterstock

NEUESTE NACHRICHTEN

5/5 - (347 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein