Eine von renommierten Universitäten und Googles DeepMind durchgeführte amerikanische Studie hat eine besorgniserregende Schwachstelle in chatgpt aufgezeigt.
Diese Situation verdeutlicht eine große Sicherheitslücke in dieser beliebten KI-Plattform.
Erzwingen Sie, dass ChatGPT persönliche Informationen preisgibt
ChatGPT, das täglich weit verbreitet ist, war Gegenstand einer amerikanischen Studie, die eine große Sicherheitslücke aufdeckte. Forschern ist es gelungen, das einzuschränkenIA persönliche Informationen für 200 US-Dollar preiszugeben, was ein potenzielles Risiko für Benutzer der Plattform darstellt.
Konzertierter Angriff von Universitäten und DeepMind
Die Universitäten Washington, Berkeley und Cornell führten in Zusammenarbeit mit DeepMind von google eine Studie zur Sicherheit von ChatGPT durch. Zu ihrer Überraschung zeigte ein kombinierter Angriff, dass die Plattform mit einem begrenzten Budget kompromittiert werden konnte. Die verwendete Methode war überraschend einfach: Bitten Sie ChatGPT, Wörter immer wieder zu wiederholen.
Offenlegung personenbezogener Daten: ein wiederkehrendes Problem
Die Studie ergab, dass das Problem nicht isoliert, sondern häufig auftritt. Mit einem Budget von 200 US-Dollar extrahierten die Forscher mehr als 10.000 einzigartige Beispiele personenbezogener Daten, von denen fast 17 % vertrauliche Informationen enthielten. Daten wie Dankesnachrichten, E-Mail-Signaturen und sogar vollständige Adressen wurden offengelegt, was das Ausmaß des Sicherheitsproblems verdeutlicht.
Fordert eine verbesserte Sicherheit
Die extrahierten Daten betreffen derzeit nur diejenigen, die zum Training der KI verwendet wurden, was jedoch ernsthafte Bedenken hinsichtlich der Benutzersicherheit aufwirft. Aufgrund der Möglichkeit, vertrauliche Informationen preiszugeben, muss dieser Fehler dringend behoben werden, um die Privatsphäre der ChatGPT-Benutzer zu gewährleisten.