OpenAI wurde letztes Jahr Opfer eines Cyberangriffs. Ein mysteriöser Hacker drang in das interne System des Unternehmens ein, um Informationen über GPT-Modelle zu stehlen. Das Unternehmen entschied sich, die Behörden nicht über den Eingriff zu informieren …
OpenAI wurde letztes Jahr Opfer eines Cyberangriffs. Nach Angaben der New York Times ist dies einem Hacker gelungen Geben Sie das interne Nachrichtensystem ein des Unternehmens. Sobald er im System war, sah er sich Diskussionen an, an denen mehrere Mitarbeiter des Konzerns beteiligt waren.
Der Angreifer konnte somit stehlen „Details zur Gestaltung von KI-Technologien“ des Startups. Informationen über die Herstellung von GPT-Sprachmodellen, die den Ursprung des wesentlichen chatgpt bilden, konnten exfiltriert werden. Andererseits gelangte der Hacker nicht in das Herzstück von OpenAI, wo das Start-up künstliche Intelligenz trainiert, trainiert und entwirft.
Lesen Sie auch: Ein neuer Rivale für ChatGPT – einer der Mitbegründer von OpenAI wird seine eigene KI entwerfen
Warum OpenAI den Angriff vertuscht hat
Zitieren „zwei Personen, die mit dem Vorfall vertraut sind“OpenAI wartete bis April 2023, um das Datenleck seinen Mitarbeitern offenzulegen. Auch der Vorstand des Unternehmens wurde informiert. OpenAI hingegen bevorzugt die Behörden nicht benachrichtigen. Das Startup entschied, dass es nicht notwendig sei, das FBI oder eine andere Strafverfolgungsbehörde zu alarmieren. „weil keine Kunden- oder Partnerinformationen gestohlen wurden“.
Darüber hinaus ist OpenAI davon überzeugt, dass es sich bei dem Angreifer um eine Einzelperson handelt, die nicht mit einer ausländischen Macht verbunden ist. Das Start-up geht nicht davon aus, dass es sich hierbei um eine Spionageoperation einer Regierung wie China oder Russland handelt. De facto wäre das Leck nicht zu vertreten keine Gefahr für die nationale Sicherheit. Der Einbruch erfolgte Anfang letzten Jahres, als OpenAI nach dem Start von ChatGPT einige Monate zuvor bereits im Rampenlicht stand. Das Start-up stand im Visier von Behörden auf der ganzen Welt. Die Firma von Sam Altman wollte wohl eine neue Welle des Misstrauens verhindern.
Die Gefahr eines chinesischen Cyberangriffs
Als einige OpenAI-Mitarbeiter auf den Eingriff aufmerksam wurden, begannen sie, dies zu befürchten „Ausländische Gegner wie China“ versuchen, die KI-Technologie der Gruppe zu stehlen. Ein Mitarbeiter namens Leopold Aschenbrenner, der technische Leiter des Unternehmens, nahm sich die Zeit, dem Vorstand seine Befürchtungen anzuvertrauen.
Aschenbrenner wurde kurz nach seiner Initiative entlassen und versichert, dass er verdrängt wurde, weil er die Idee geäußert hatte, die OpenAI nicht akzeptierte nicht die notwendigen Maßnahmen ergreifen, um sich zu schützen gegen Piraterie. OpenAI wies die Anschuldigungen seines ehemaligen Mitarbeiters entschieden zurück. Der Start zeigt an, dass dies der Fall ist „Ich bin mit vielen seiner Aussagen nicht einverstanden“.
Die Enthüllung erfolgt wenige Tage, nachdem eine Sicherheitslücke in der macOS-App von ChatGPT entdeckt wurde. Wie ein Entwickler feststellte, machte sich OpenAI nicht die Mühe, Schutzmaßnahmen zum Schutz der Privatsphäre von Gesprächen einzurichten. Durch die Suche in der Computerbibliothek war es möglich, den gesamten Austausch zwischen dem Gesprächspartner und der KI einzusehen. OpenAI wurde Fahrlässigkeit vorgeworfen und korrigierte die Situation mit einem Update.
🔴 Um keine Neuigkeiten von 01net zu verpassen, folgen Sie uns auf google.com/publications/CAAqBwgKMJPsvAswoIfUAw?hl=fr&gl=FR&ceid=FR%3Afr“ target=“_blank“>Google Nachrichten und WhatsApp.
JETZT