OpenAI scheint jeden Tag in den Nachrichten zu sein und dieses Mal geht es um eine doppelte Dosis Sicherheitsprobleme. OpenAI ist bekannt für seine bahnbrechenden Fortschritte in der künstlichen Intelligenz und rückt jetzt aus nicht nur einem Grund ins Rampenlicht zwei erhebliche Sicherheitslücken.

Diese Vorfälle haben Fragen zum Datenmanagement und den Cybersicherheitsprotokollen des Unternehmens aufgeworfen und das Vertrauen von Benutzern und Branchenexperten erschüttert.

chatgpt für Mac ist voller Sicherheitslücken

Der Mac-Anwendung für ChatGPT ist ein beliebtes Tool für Benutzer, die das leistungsstarke Sprachmodell von OpenAI nutzen möchten. GPT-4odirekt aus ihrem Büro. Diese Woche wurde jedoch eine Sicherheitslücke aufgedeckt.

Pedro José Pereira VieitoEin Swift-Entwickler entdeckte, dass die App die Konversationen der Benutzer im Klartext lokal auf dem Gerät speicherte. Dies bedeutet, dass alle vertraulichen Informationen, die während dieser Gespräche weitergegeben wurden, ungeschützt waren und für andere Anwendungen oder potenzielle Malware zugänglich waren.

Vieitos Erkenntnisse wurden schnell von den technischen Nachrichtenmedien aufgegriffen Die KanteDies verstärkt die Bedenken der Benutzer und veranlasst OpenAI, schnelle Maßnahmen zu ergreifen. Das Unternehmen hat dazu ein Update veröffentlicht Einführung der Verschlüsselung für lokal gespeicherte GesprächeReaktion auf das unmittelbare Sicherheitsproblem.

Siehe auch  Laut OpenAI habe die New York Times ChatGPT „gehackt“, bevor sie eine Urheberrechtsklage eingereicht habe

Erschwerend kam hinzu, dass es kein Sandboxing gab, eine Sicherheitsmaßnahme, die Anwendungen isoliert, um zu verhindern, dass Schwachstellen andere Teile des Systems beeinträchtigen. Da die ChatGPT-App auf der nicht verfügbar ist apple-ai-app-store/“ target=“_blank“ rel=“noopener“>App Store von Appleil muss nicht den Sandbox-Anforderungen von Apple entsprechen.

Die Tatsache, dass solch grundlegende Sicherheitsvernachlässigungen aufgetreten sind, hat Fragen zu den internen Sicherheitspraktiken von OpenAI und der Genauigkeit seines Anwendungsentwicklungsprozesses aufgeworfen.

Dieser Fehler ermöglichte es der App, Daten unsicher zu speichern, wodurch Benutzer potenziellen Risiken ausgesetzt wurden.

Die schnelle Lösung von OpenAI milderte die unmittelbare Bedrohung, verdeutlichte aber auch die Notwendigkeit stärkerer Sicherheitsmaßnahmen bei der Entwicklung und Bereitstellung von KI-Anwendungen.

Ein Handbuch für Hacker

Das zweite Sicherheitsproblem, mit dem OpenAI konfrontiert ist, ist Die Ursache liegt in einem Vorfall im vergangenen Frühjahraber ihre Auswirkungen sind noch heute spürbar.

Zu Beginn des letzten Jahres Einem Hacker ist es gelungen, die internen Nachrichtensysteme von OpenAI zu hackenDadurch erhalten sie Zugang zu sensiblen Informationen über Unternehmensabläufe und KI-Technologien. Ein Hacker hat Details von Diskussionen in einem Online-Forum sichergestellt, in denen Mitarbeiter über die neuesten OpenAI-Technologien sprachenNach Angaben von zwei Personen mit Kenntnis des Vorfalls waren sie jedoch nicht in der Lage, in die Systeme einzudringen, in denen das Unternehmen seine KI hostet und aufbaut.

Führungskräfte von OpenAI enthüllten den Vorfall den Mitarbeitern während eines Hauptversammlung im April 2023 in den Büros des Unternehmens in San Francisco. Es wurde jedoch beschlossen, den Verstoß nicht öffentlich bekannt zu geben, da keine Kunden- oder Partnerinformationen gestohlen wurden und die Führungskräfte dies nicht als Bedrohung für die nationale Sicherheit betrachteten. Sie dachten, dass die Der Hacker war eine Person ohne Verbindungen zu einer ausländischen RegierungSo dass sie weder das FBI noch die Strafverfolgungsbehörden benachrichtigt.

Siehe auch  Jobjägerin beschreibt, wie sie über ChatGPT Rückrufe und Stellenangebote erhalten hat
Openai-Sicherheitslücken
Es wurde bereits früher entdeckt, dass die Mac-App ChatGPT Benutzerkonversationen im Klartext speichert, was ein Sicherheitsrisiko darstellt (Bildnachweis)

Der Schritt löste intern Bedenken hinsichtlich der Sicherheitslage von OpenAI aus. Das befürchteten einige Mitarbeiter Ausländische Gegner wie China könnten möglicherweise ähnliche Schwachstellen ausnutzen um KI-Technologie zu stehlen, die möglicherweise eine Bedrohung für die nationale Sicherheit der USA darstellen könnte.

Léopold Aschenbrenner, un Technischer Programmmanager von OpenAIargumentierte das Das Unternehmen ergriff keine ausreichenden Maßnahmen, um solchen Bedrohungen vorzubeugenEr sandte ein Memo an den Vorstand, in dem er seine Bedenken darlegte, wurde jedoch später entlassen, eine Entscheidung, die seiner Meinung nach aufgrund seiner Whistleblowing politisch motiviert war.

Geflüsterte Sorgen

Der interner Verstoß und anschließende Bearbeitung des Vorfalls Die Enthüllungen von OpenAI über Sicherheitspraktiken und Transparenz haben tiefere Spaltungen innerhalb von OpenAI aufgedeckt. Die Entlassung von Aschenbrenner, die seiner Aussage nach auf sein Whistleblowing zurückzuführen war, hat eine Debatte über das Sicherheitsengagement des Unternehmens und den Umgang mit internen Meinungsverschiedenheiten ausgelöst. Während OpenAI behauptet, dass seine Entlassung nichts mit seinem Whistleblowing zu tun hatte, verdeutlichte die Situation die Spannungen innerhalb des Unternehmens.

Dieser Verstoß und seine Folgen haben auch die potenziellen geopolitischen Risiken deutlich gemacht, die mit fortschrittlichen KI-Technologien verbunden sind. Befürchtungen, dass KI-Geheimnisse von ausländischen Gegnern wie China gestohlen werden könnten, sind nicht unbegründet. Ähnliche Bedenken wurden im Technologiesektor geäußert, unter anderem von Microsoft-Präsident Brad Smith, der aussagte, dass chinesische Hacker Technologiesysteme ausnutzen, um Bundesnetzwerke anzugreifen.

Trotz dieser Bedenken verhindern Bundes- und Landesgesetze, dass Unternehmen wie OpenAI aufgrund der Nationalität diskriminieren. Experten sagen, dass der Ausschluss ausländischer Talente die Entwicklung der KI in den Vereinigten Staaten behindern könnte. Matt Knight, Chief Security Officer von OpenAI, betonte die Notwendigkeit, diese Risiken auszugleichen und gleichzeitig Top-Talente auf der ganzen Welt zu nutzen, um KI-Technologien voranzutreiben.

Siehe auch  Anwälte beschuldigen ChatGPT, sie dazu verleitet zu haben, falsche Rechtsprechung zu zitieren
Openai-Sicherheitslücken
Im Jahr 2023 hackte sich im vergangenen Frühjahr ein Hacker in die internen E-Mail-Systeme von OpenAI ein und griff auf vertrauliche Informationen zu (Bildnachweis)

Was ist das Machtspiel von OpenAI?

Als Reaktion auf diese Vorfälle OpenAI hat Schritte unternommen, um seine Sicherheitsmaßnahmen zu verstärken. Das Unternehmen hat eine implementiert Sicherheitsausschuss um Risiken im Zusammenhang mit zukünftigen Technologien zu bewerten und zu mindern. Zu diesem Gremium gehören Persönlichkeiten wie Paul Nakasoneein ehemaliger Armeegeneral, der die National Security Agency und das Cyber ​​Command leitete und in den Vorstand von OpenAI berufen wurde.

Das Engagement von OpenAI für Sicherheit zeigt sich auch in den kontinuierlichen Investitionen in den Schutz seiner Technologien. Knight wies darauf hin, dass diese Bemühungen bereits Jahre vor der Einführung von ChatGPT begannen und sich ständig weiterentwickeln, während das Unternehmen versucht, aufkommende Risiken zu verstehen und zu bewältigen. Trotz dieser proaktiven Maßnahmen haben die jüngsten Vorfälle gezeigt, dass der Weg zu einer robusten Sicherheit noch weiter voranschreitet und ständige Wachsamkeit erfordert.


Hervorgehobener Bildnachweis: Kim Menikh/Unsplash

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein