[ad_1]
Das Jahr 2023 hat für das Start-up OpenAI nicht gut begonnen, erfuhren wir eineinhalb Jahre später. Ein Hacker nutzte eine Sicherheitslücke aus, die es ihm ermöglichte, auf interne Gespräche zwischen Mitarbeitern und Forschern des Start-ups hinter dem chatgpt-Konversationsroboter zuzugreifen. Dem Angreifer, der so Details zum Design der KI-Technologien des Unternehmens gestohlen hätte, wäre es jedoch nicht gelungen, an den Quellcode von ChatGPT und seinen generativen KI-Technologien zu gelangen.
Laut OpenAI-Quellen haben OpenAI-Führungskräfte den Eingriff gegenüber OpenAI-Mitarbeitern während einer Hauptversammlung in den Büros des Unternehmens in San Francisco im April 2023 offengelegt. «New York Times». Eine Veröffentlichung der Angelegenheit sowie eine Information der Behörden oder des FBI hielt das Unternehmen jedoch nicht für notwendig, da offenbar keine Informationen zu Kunden- und Partnerkonten durchgesickert sind. OpenAI war außerdem der Ansicht, dass der Hack nicht von einer Regierung inszeniert wurde und keine Bedrohung für die nationale Sicherheit darstellte.
Bei einigen Mitarbeitern löste die Nachricht Befürchtungen aus, dass Hacker, die für eine ausländische Regierung wie China arbeiten, die Geheimnisse von OpenAI stehlen und sie für schändliche Zwecke missbrauchen könnten. Es warf auch die Frage auf, wie ernst OpenAI die Sicherheit nahm. Nach dem Eindringen schickte Leopold Aschenbrenner, ehemaliger Leiter des technischen Programms von OpenAI, ein internes Memo an den Vorstand, in dem er dem Unternehmen vorwarf, nicht genug zu tun, um die chinesische Regierung oder andere ausländische Mächte daran zu hindern, seine Geheimnisse zu stehlen. Seiner Meinung nach waren es dieser Hinweis und politische Beweggründe, die zu seiner Entlassung führten. Aussagen, die OpenAI in den Kolumnen der amerikanischen Tageszeitung dementiert.
[ad_2]