OpenAI scheint jeden Tag Schlagzeilen zu machen und dieses Mal geht es um eine doppelte Dosis an Sicherheitsbedenken. Das erste Problem betrifft die Mac-App für chatgpt, während das zweite auf allgemeinere Bedenken hinsichtlich des Umgangs des Unternehmens mit seiner Cybersicherheit hindeutet.

Anfang dieser Woche sagte der Ingenieur und Swift-Entwickler Pedro José Pereira Vieito die Mac ChatGPT-App und stellte fest, dass sie Benutzergespräche lokal im Klartext speicherte, anstatt sie zu verschlüsseln. Die App ist nur auf der Website von OpenAI verfügbar, und da sie nicht im App Store erhältlich ist, muss sie nicht die Sandboxing-Anforderungen von apple erfüllen. Vieitos Arbeit wurde dann von und nachdem der Exploit Aufmerksamkeit erregte, veröffentlichte OpenAI ein Update, das lokal gespeicherten Chats Verschlüsselung hinzufügte.

Für Nicht-Entwickler ist Sandboxing eine Sicherheitsmethode, die verhindert, dass sich potenzielle Schwachstellen und Fehler von einer Anwendung auf andere auf einem Computer ausbreiten. Und für Nicht-Sicherheitsexperten bedeutet das Speichern lokaler Dateien im Klartext, dass potenziell vertrauliche Daten leicht von anderen Anwendungen oder Malware eingesehen werden können.

Das zweite Problem trat 2023 auf und hat Folgen, die bis heute andauern. Im vergangenen Frühjahr konnte ein Hacker Informationen über OpenAI erhalten, nachdem er sich illegal Zugang zu den internen Nachrichtensystemen des Unternehmens verschafft hatte. berichtete, dass Leopold Aschenbrenner, technischer Programmmanager bei OpenAI, Sicherheitsbedenken gegenüber dem Vorstand des Unternehmens geäußert habe und argumentiert habe, dass der Hack interne Schwachstellen aufweise, die ausländische Angreifer ausnutzen könnten.

Aschenbrenner sagt nun, er sei entlassen worden, weil er Informationen über OpenAI preisgegeben und Bedenken hinsichtlich der Sicherheit des Unternehmens geäußert habe. Ein Vertreter von OpenAI sagte Die Zeiten Er sagte: „Wir teilen zwar sein Engagement für den Aufbau einer sicheren AGI, sind jedoch mit vielen der Behauptungen, die er seitdem über unsere Arbeit aufgestellt hat, nicht einverstanden“ und fügte hinzu, dass sein Ausscheiden nicht das Ergebnis einer Whistleblower-Aktion gewesen sei.

Siehe auch  Die Financial Times unterzeichnet eine Vereinbarung mit OpenAI!

Schwachstellen in Apps sind etwas, das jedes Technologieunternehmen schon erlebt hat. Auch Verstöße durch Hacker sind bedrückend häufig, ebenso wie strittige Beziehungen zwischen Whistleblowern und ihren ehemaligen Arbeitgebern. Angesichts der breiten Akzeptanz von ChatGPT in Diensten und des Chaos bei den , und , des Unternehmens zeichnen diese jüngsten Probleme jedoch ein beunruhigenderes Bild darüber, ob OpenAI seine Daten verwalten kann.

5/5 - (193 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein