Kürzlich wurde eine erhebliche Sicherheitslücke in OpenAIs neu aufgelegt chatgpt-App für macOS. Durch diesen Fehler konnten gespeicherte Chat-Konversationen leicht abgerufen und im Klartext gelesen werden, was ein ernstes Risiko für die Privatsphäre der Benutzer darstellte. Als OpenAI über das Problem informiert wurde, reagierte das Unternehmen mit der Veröffentlichung eines Updates, das die lokal gespeicherten Chats verschlüsselt.
Die Sicherheitslücke wurde dank des Entwicklers Pedro José Pereira Vieito ans Licht gebracht, der demonstrierte, wie eine andere App problemlos auf aktuelle Unterhaltungen auf ChatGPT zugreifen und diese anzeigen kann, die auf dem Computer eines Benutzers gespeichert sind. Vieitos Demonstration war einfach – durch einfaches Ändern der Dateinamen konnte man ChatGPT-Unterhaltungen anzeigen. Er veranschaulichte dies, indem er eine App entwickelte, die diese Unterhaltungen mit einem Klick lesen konnte, und verdeutlichte damit, wie einfach auf private Daten zugegriffen werden konnte.
Ein kritischer Aspekt dieser Sicherheitslücke war das Fehlen von Sandboxing in der ChatGPT macOS-App. Sandboxing ist ein Sicherheitsmechanismus, der die Daten einer App von anderen Teilen des Systems isoliert und sicherstellt, dass die App ohne ausdrückliche Erlaubnis nicht auf andere Systemteile zugreifen kann. Diese Vorgehensweise ist für iOS-Apps obligatorisch, für MacOS-Apps jedoch optional, insbesondere für solche, die außerhalb des Mac App Store vertrieben werden. Durch den Verzicht auf Sandboxing speicherte die ChatGPT-App Konversationen im Klartext, sodass sie für jede Anwendung oder Malware auf demselben Gerät leicht zugänglich waren.
Später bestätigte Taya Christianson, eine Sprecherin von OpenAI: „Wir sind uns dieses Problems bewusst und haben eine neue Version der Anwendung ausgeliefert, die diese Gespräche verschlüsselt. Wir sind bestrebt, eine hilfreiche Benutzererfahrung zu bieten und gleichzeitig unsere hohen Sicherheitsstandards beizubehalten, während sich unsere Technologie weiterentwickelt.“ Dieses Update behob die Sicherheitslücke effektiv, da nachfolgende Tests bestätigten, dass Gespräche nicht mehr im Klartext zugänglich waren.
Generative KI steht hinsichtlich der Privatsphäre der Benutzer unter intensiver Beobachtung. OpenAI wurde besonders dafür kritisiert, dass es unbefugt private Datensätze verwendet, um Modelle zu trainieren, die sie wiederum noch intuitiver machen. Das Speichern von Konversationen im Klartext macht sie anfällig für unbefugten Zugriff und legt vertrauliche Informationen offen. Durch die Verschlüsselung wird sichergestellt, dass die Daten sicher und ohne geeignete Entschlüsselungsschlüssel unlesbar bleiben, was die Datensicherheit erheblich verbessert. Für Benutzer, die die ChatGPT macOS-App installiert haben, ist es wichtig, auf die neueste Version zu aktualisieren, um von den verbesserten Sicherheitsmaßnahmen zu profitieren.