OpenAI hat offiziell bestätigt, dass die Anmeldeinformationen von chatgpt-Benutzern kompromittiert wurden, was zu unbefugtem Zugriff und Missbrauch von Konten führte. Diese Bestätigung erfolgt als Reaktion auf die jüngsten Behauptungen von ArsTechnica, wonach von einem Leser eingesandte Screenshots darauf hindeuteten, dass ChatGPT private Konversationen, einschließlich sensibler Details wie Benutzernamen und Passwörter, preisgab, was das Unternehmen vollständig bestritt.

OpenAI stellte klar, dass ihre Betrugs- und Sicherheitsteams die Angelegenheit aktiv untersuchten, und wies den ursprünglichen ArsTechnica-Bericht als ungenau zurück. Laut OpenAI ermöglichten die kompromittierten Anmeldedaten eines Kontos einem böswilligen Akteur, sich Zugang zu den betroffenen Konten zu verschaffen und diese zu missbrauchen. Der durchgesickerte Chat-Verlauf und die Dateien waren das Ergebnis dieses unbefugten Zugriffs und es handelte sich nicht darum, dass ChatGPT den Verlauf eines anderen Benutzers anzeigte.

Der betroffene Benutzer, dessen Konto Berichten zufolge kompromittiert wurde, glaubte nicht, dass auf sein Konto zugegriffen worden war. OpenAI betonte, dass die laufende Untersuchung weitere Erkenntnisse über das Ausmaß des Verstoßes und die notwendigen Schritte zur Behebung des Sicherheitsproblems liefern werde.

ArsTechnica hatte ursprünglich berichtet, dass ChatGPT private Gespräche anzeigte, was Bedenken hinsichtlich der Offenlegung sensibler Informationen aufkommen ließ. Der betroffene Benutzer hatte in seinem Chatverlauf zusätzliche Konversationen entdeckt, die ihm nicht gehörten, nachdem er ChatGPT für eine unabhängige Abfrage verwendet hatte.

Die durchgesickerten Gespräche enthielten Details aus einem Supportsystem, das von Mitarbeitern eines Portals für verschreibungspflichtige Medikamente in der Apotheke genutzt wurde, und enthielten Informationen zu Fehlerbehebungsproblemen, den Namen der App, Filialnummern und zusätzliche Anmeldedaten. Ein weiteres durchgesickertes Gespräch enthüllte Details zu einer Präsentation und einem unveröffentlichten Forschungsvorschlag.

Siehe auch  Integrieren Sie ChatGPT für maximale Effizienz in Ihre WordPress-Site

Dieser Vorfall ergänzt eine Reihe früherer Sicherheitsbedenken im Zusammenhang mit ChatGPT. Im März 2023 führte Berichten zufolge ein Fehler zum Durchsickern von Chattiteln, und im November 2023 konnten Forscher durch Manipulation von Abfragen private Daten extrahieren, die beim Training des Sprachmodells verwendet wurden.

Daher wird Benutzern empfohlen, beim Einsatz von KI-Bots wie ChatGPT Vorsicht walten zu lassen, insbesondere bei Bots, die von Dritten erstellt wurden. Das Fehlen standardmäßiger Sicherheitsfunktionen wie der Zwei-Faktor-Authentifizierung (2FA) oder der Möglichkeit, die letzten Anmeldungen auf der ChatGPT-Site zu überprüfen, wurde ebenfalls hervorgehoben, was Bedenken hinsichtlich der Sicherheitsmaßnahmen der Plattform aufkommen lässt.

Herausgegeben von:

Ankita Garg

Veröffentlicht auf:

31. Januar 2024

Einschalten

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein