chatgpt-data-leak-patch-partially-resolves-the-problem.jpg“ class=“ff-og-image-inserted“/>

Der KI-Chatbot von OpenAI, ChatGPT, weist seit seiner Veröffentlichung im letzten Jahr Sicherheitslücken auf. Trotz eines aktuellen Sicherheitspatches zeigt ein neuer Bericht, dass der Chatbot immer noch anfällig für Datenlecks ist. Dies gibt Anlass zur Sorge hinsichtlich des möglichen Missbrauchs sensibler oder privater Informationen durch Unbefugte.

Das neueste Datenleck-Problem

Laut einem Bericht von Bleeping Computer hat OpenAI eine Lösung für ein Datenleckproblem in ChatGPT eingeführt. Die Sicherheitslücke ermöglichte unbefugten Dritten den Zugriff auf Benutzerkonversationen und zugehörige Metadaten wie Benutzer-IDs und Sitzungsinformationen.

Allerdings behauptet der Sicherheitsforscher Johann Rehberger, der die Schwachstelle entdeckt hat, dass die Behebung durch OpenAI nicht ausreiche. Rehberger konnte den Fehler mithilfe der benutzerdefinierten GPTs-Funktion von OpenAI ausnutzen, die es Benutzern ermöglicht, ihre eigenen GPT-Modelle zu erstellen. Dieses Ergebnis legt nahe, dass böswillige Akteure möglicherweise benutzerdefinierte GPTs erstellen könnten, um Daten von Zielpersonen zu stehlen.

Rehberger kontaktierte OpenAI zunächst im April bezüglich der Datenexfiltrationstechnik und lieferte im November detaillierte Informationen über den Prozess. Während OpenAI die Leck-Schwachstelle gepatcht hat, gibt Rehberger an, dass ChatGPT immer noch Daten über dieselbe Schwachstelle preisgibt. Auch wenn die Menge der durchgesickerten Daten gering und für Benutzer erkennbar ist, deutet dies darauf hin, dass die Sicherheitslücke weiterhin besteht.

Insbesondere wurde der Sicherheitspatch nicht in den ChatGPT-Apps für iOS und Android implementiert, wodurch Benutzer dieser Plattformen anfällig für Datenlecks sind. Um das Risiko zu mindern, wird ChatGPT-Benutzern empfohlen, bei der Verwendung benutzerdefinierter GPTs Vorsicht walten zu lassen und KI-Apps von unbekannten Drittanbietern zu meiden.

Obwohl die Bemühungen von OpenAI zur Behebung der Sicherheitslücke lobenswert sind, sind weitere Verbesserungen erforderlich, um die Privatsphäre und Sicherheit der ChatGPT-Benutzer zu gewährleisten. Für OpenAI ist es von entscheidender Bedeutung, der Entwicklung und Bereitstellung robuster Sicherheitsmaßnahmen Priorität einzuräumen, um unbefugten Zugriff auf Benutzerdaten zu verhindern.

Siehe auch  Integration von ChatGPT und anderen generativen KI-Tools in die Hochschullandschaft in Liberia
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein