Die Integration von chatgpt in Dienste großer Unternehmen und die scheinbar chaotische Aufsicht bei OpenAI zeichnen ein immer beunruhigenderes Bild über die Fähigkeit des Unternehmens, seine Daten zu verwalten und zu schützen. Bildnachweis: AFP

OpenAI, das Unternehmen hinter ChatGPT, steht erneut im Rampenlicht, diesmal jedoch wegen Sicherheitsproblemen. Zwei aktuelle Vorfälle haben erhebliche Bedenken hinsichtlich des Umgangs des Unternehmens mit der Cybersicherheit geweckt und einen Schatten auf seinen Ruf geworfen.

Das erste Problem trat Anfang dieser Woche auf, als der Ingenieur und Swift-Entwickler Pedro José Pereira Vieito eine beunruhigende Schwachstelle in der Mac ChatGPT-App entdeckte. Vieito entdeckte, dass die App Benutzergespräche lokal im Klartext speicherte, anstatt sie zu verschlüsseln.

Dies bedeutet, dass potenziell sensible Daten leicht von anderen Apps oder Malware auf demselben Computer abgerufen werden könnten. Die App, die nur auf der Website von OpenAI verfügbar ist, umgeht den App Store von apple und seine Sandboxing-Anforderungen, die darauf ausgelegt sind, potenzielle Schwachstellen in einzelnen Anwendungen einzudämmen.

Sandboxing ist eine wichtige Sicherheitsmaßnahme, die verhindert, dass Schwachstellen in einer App andere auf einem Computer beeinträchtigen. Ohne Sandboxing steigt das Risiko, dass vertrauliche Informationen offengelegt werden. Nach Vieitos Erkenntnissen, über die später The Verge berichtete, veröffentlichte OpenAI ein Update, das den lokal gespeicherten Chats eine Verschlüsselung hinzufügte.

Das zweite Problem stammt aus dem Jahr 2023, ist aber bis heute aktuell. Im vergangenen Frühjahr gelang es einem Hacker, in die internen Nachrichtensysteme von OpenAI einzudringen und so Zugriff auf vertrauliche Informationen über das Unternehmen zu erhalten. Dieser Einbruch machte potenzielle interne Sicherheitslücken deutlich, die von böswilligen Akteuren ausgenutzt werden könnten. Der damalige technische Programmmanager von OpenAI, Leopold Aschenbrenner, äußerte diese Bedenken gegenüber dem Vorstand des Unternehmens und betonte das Risiko, dass ausländische Gegner diese Schwachstellen ausnutzen könnten.

Siehe auch  ChatGPT-Plugin für Hedera-Netzwerk gestartet

Aschenbrenner behauptet nun, er sei entlassen worden, weil er diese Sicherheitsprobleme ans Licht gebracht und Informationen über den Verstoß preisgegeben habe. OpenAI bestreitet dies jedoch und erklärt, seine Entlassung habe nichts mit der Whistleblower-Affäre zu tun. Ein Vertreter von OpenAI sagte der New York Times, dass das Unternehmen zwar Aschenbrenners Engagement für den Aufbau sicherer künstlicher allgemeiner Intelligenz (AGI) teile, jedoch mit vielen seiner Behauptungen über ihre Sicherheitspraktiken nicht einverstanden sei.

Sicherheitslücken in Softwareanwendungen sind in der Technologiebranche keine Seltenheit und Einbrüche durch Hacker stellen eine ständige Bedrohung dar. Auch strittige Beziehungen zwischen Whistleblowern und ihren ehemaligen Arbeitgebern sorgen häufig für Schlagzeilen.

Die Kombination dieser Probleme bei OpenAI, insbesondere angesichts der weiten Verbreitung von ChatGPT, gibt jedoch Anlass zu ernsthaften Bedenken. Die Integration der App in Dienste großer Akteure und die als chaotisch wahrgenommene Aufsicht bei OpenAI zeichnen ein beunruhigenderes Bild über die Fähigkeit des Unternehmens, seine Daten zu verwalten und zu schützen.

Die jüngsten Vorfälle unterstreichen die Notwendigkeit robuster Cybersicherheitsmaßnahmen und transparenter Praktiken, insbesondere für ein Unternehmen, das an der Spitze der KI-Entwicklung steht. Während OpenAI diese Herausforderungen weiterhin meistert, bleiben die umfassenderen Auswirkungen auf die Datensicherheit und das Vertrauen in die KI-Technologie sowohl für das Unternehmen als auch für seine Benutzer kritische Probleme.

Finden Sie uns auf YouTube

Abonnieren

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein