OpenAI scheint jeden Tag in den Nachrichten zu sein und dieses Mal geht es um eine doppelte Dosis Sicherheitsprobleme. OpenAI ist bekannt für seine bahnbrechenden Fortschritte in der künstlichen Intelligenz und rückt jetzt aus nicht nur einem Grund ins Rampenlicht zwei erhebliche Sicherheitslücken.
Diese Vorfälle haben Fragen zum Datenmanagement und den Cybersicherheitsprotokollen des Unternehmens aufgeworfen und das Vertrauen von Benutzern und Branchenexperten erschüttert.
chatgpt für Mac ist voller Sicherheitslücken
Der Mac-Anwendung für ChatGPT ist ein beliebtes Tool für Benutzer, die das leistungsstarke Sprachmodell von OpenAI nutzen möchten. GPT-4odirekt aus ihrem Büro. Diese Woche wurde jedoch eine Sicherheitslücke aufgedeckt.
Pedro José Pereira VieitoEin Swift-Entwickler entdeckte, dass die App die Konversationen der Benutzer im Klartext lokal auf dem Gerät speicherte. Dies bedeutet, dass alle vertraulichen Informationen, die während dieser Gespräche weitergegeben wurden, ungeschützt waren und für andere Anwendungen oder potenzielle Malware zugänglich waren.
macOS hat seit macOS Mojave 10.14 (vor 6 Jahren!) den Zugriff auf alle privaten Benutzerdaten blockiert. Jede App, die auf die privaten Daten der Benutzer zugreift (Kalender, Kontakte, Nachrichten, Fotos, App-Sandboxen von Drittanbietern usw.), erfordert jetzt einen expliziten Benutzerzugriff.
— Pedro José Pereira Vieito (@pvieito) 2. Juli 2024
Vieitos Erkenntnisse wurden schnell von den technischen Nachrichtenmedien aufgegriffen Die KanteDies verstärkt die Bedenken der Benutzer und veranlasst OpenAI, schnelle Maßnahmen zu ergreifen. Das Unternehmen hat dazu ein Update veröffentlicht Einführung der Verschlüsselung für lokal gespeicherte GesprächeReaktion auf das unmittelbare Sicherheitsproblem.
Erschwerend kam hinzu, dass es kein Sandboxing gab, eine Sicherheitsmaßnahme, die Anwendungen isoliert, um zu verhindern, dass Schwachstellen andere Teile des Systems beeinträchtigen. Da die ChatGPT-App auf der nicht verfügbar ist apple-ai-app-store/“ target=“_blank“ rel=“noopener“>App Store von Appleil muss nicht den Sandbox-Anforderungen von Apple entsprechen.
Die Tatsache, dass solch grundlegende Sicherheitsvernachlässigungen aufgetreten sind, hat Fragen zu den internen Sicherheitspraktiken von OpenAI und der Genauigkeit seines Anwendungsentwicklungsprozesses aufgeworfen.
Dieser Fehler ermöglichte es der App, Daten unsicher zu speichern, wodurch Benutzer potenziellen Risiken ausgesetzt wurden.
Die schnelle Lösung von OpenAI milderte die unmittelbare Bedrohung, verdeutlichte aber auch die Notwendigkeit stärkerer Sicherheitsmaßnahmen bei der Entwicklung und Bereitstellung von KI-Anwendungen.
Ein Handbuch für Hacker
Das zweite Sicherheitsproblem, mit dem OpenAI konfrontiert ist, ist Die Ursache liegt in einem Vorfall im vergangenen Frühjahraber ihre Auswirkungen sind noch heute spürbar.
Zu Beginn des letzten Jahres Einem Hacker ist es gelungen, die internen Nachrichtensysteme von OpenAI zu hackenDadurch erhalten sie Zugang zu sensiblen Informationen über Unternehmensabläufe und KI-Technologien. Ein Hacker hat Details von Diskussionen in einem Online-Forum sichergestellt, in denen Mitarbeiter über die neuesten OpenAI-Technologien sprachenNach Angaben von zwei Personen mit Kenntnis des Vorfalls waren sie jedoch nicht in der Lage, in die Systeme einzudringen, in denen das Unternehmen seine KI hostet und aufbaut.
Führungskräfte von OpenAI enthüllten den Vorfall den Mitarbeitern während eines Hauptversammlung im April 2023 in den Büros des Unternehmens in San Francisco. Es wurde jedoch beschlossen, den Verstoß nicht öffentlich bekannt zu geben, da keine Kunden- oder Partnerinformationen gestohlen wurden und die Führungskräfte dies nicht als Bedrohung für die nationale Sicherheit betrachteten. Sie dachten, dass die Der Hacker war eine Person ohne Verbindungen zu einer ausländischen RegierungSo dass sie weder das FBI noch die Strafverfolgungsbehörden benachrichtigt.
Der Schritt löste intern Bedenken hinsichtlich der Sicherheitslage von OpenAI aus. Das befürchteten einige Mitarbeiter Ausländische Gegner wie China könnten möglicherweise ähnliche Schwachstellen ausnutzen um KI-Technologie zu stehlen, die möglicherweise eine Bedrohung für die nationale Sicherheit der USA darstellen könnte.
Léopold Aschenbrenner, un Technischer Programmmanager von OpenAIargumentierte das Das Unternehmen ergriff keine ausreichenden Maßnahmen, um solchen Bedrohungen vorzubeugenEr sandte ein Memo an den Vorstand, in dem er seine Bedenken darlegte, wurde jedoch später entlassen, eine Entscheidung, die seiner Meinung nach aufgrund seiner Whistleblowing politisch motiviert war.
Geflüsterte Sorgen
Der interner Verstoß und anschließende Bearbeitung des Vorfalls Die Enthüllungen von OpenAI über Sicherheitspraktiken und Transparenz haben tiefere Spaltungen innerhalb von OpenAI aufgedeckt. Die Entlassung von Aschenbrenner, die seiner Aussage nach auf sein Whistleblowing zurückzuführen war, hat eine Debatte über das Sicherheitsengagement des Unternehmens und den Umgang mit internen Meinungsverschiedenheiten ausgelöst. Während OpenAI behauptet, dass seine Entlassung nichts mit seinem Whistleblowing zu tun hatte, verdeutlichte die Situation die Spannungen innerhalb des Unternehmens.
Dieser Verstoß und seine Folgen haben auch die potenziellen geopolitischen Risiken deutlich gemacht, die mit fortschrittlichen KI-Technologien verbunden sind. Befürchtungen, dass KI-Geheimnisse von ausländischen Gegnern wie China gestohlen werden könnten, sind nicht unbegründet. Ähnliche Bedenken wurden im Technologiesektor geäußert, unter anderem von Microsoft-Präsident Brad Smith, der aussagte, dass chinesische Hacker Technologiesysteme ausnutzen, um Bundesnetzwerke anzugreifen.
Trotz dieser Bedenken verhindern Bundes- und Landesgesetze, dass Unternehmen wie OpenAI aufgrund der Nationalität diskriminieren. Experten sagen, dass der Ausschluss ausländischer Talente die Entwicklung der KI in den Vereinigten Staaten behindern könnte. Matt Knight, Chief Security Officer von OpenAI, betonte die Notwendigkeit, diese Risiken auszugleichen und gleichzeitig Top-Talente auf der ganzen Welt zu nutzen, um KI-Technologien voranzutreiben.
Was ist das Machtspiel von OpenAI?
Als Reaktion auf diese Vorfälle OpenAI hat Schritte unternommen, um seine Sicherheitsmaßnahmen zu verstärken. Das Unternehmen hat eine implementiert Sicherheitsausschuss um Risiken im Zusammenhang mit zukünftigen Technologien zu bewerten und zu mindern. Zu diesem Gremium gehören Persönlichkeiten wie Paul Nakasoneein ehemaliger Armeegeneral, der die National Security Agency und das Cyber Command leitete und in den Vorstand von OpenAI berufen wurde.
Das Engagement von OpenAI für Sicherheit zeigt sich auch in den kontinuierlichen Investitionen in den Schutz seiner Technologien. Knight wies darauf hin, dass diese Bemühungen bereits Jahre vor der Einführung von ChatGPT begannen und sich ständig weiterentwickeln, während das Unternehmen versucht, aufkommende Risiken zu verstehen und zu bewältigen. Trotz dieser proaktiven Maßnahmen haben die jüngsten Vorfälle gezeigt, dass der Weg zu einer robusten Sicherheit noch weiter voranschreitet und ständige Wachsamkeit erfordert.
Hervorgehobener Bildnachweis: Kim Menikh/Unsplash