Einem neuen Bericht zufolge ist ein Hacker in die Systeme des chatgpt-Erfinders OpenAI eingebrochen.

Die Cyber-Angreifer konnten interne Chats einsehen und möglicherweise Details über das Design der künstlichen Intelligenzprodukte des Unternehmens stehlen, heißt es in dem Bericht.

Allerdings habe das Unternehmen die Strafverfolgungsbehörden nicht über den Einbruch informiert, heißt es in dem Bericht.

Laut der New York Times hat ein Hacker bei dem Vorfall Details aus Diskussionen in einem internen Forum zwischen OpenAI-Mitarbeitern über die Technologien gestohlen, an denen das Unternehmen arbeitet.

Allerdings hätten sie keinen Zugriff auf die Systeme gehabt, in denen die Produkte von OpenAI gebaut und untergebracht werden, heißt es in dem Bericht.

Das US-Unternehmen befindet sich an der Spitze des jüngsten KI-Booms, der durch die Veröffentlichung seines generativen KI-Chatbots ChatGPT Ende 2022 ausgelöst wurde.

Seitdem haben viele der weltweit größten Technologieunternehmen begonnen, in den Sektor einzusteigen, und viele Experten sehen in der generativen KI auch die Schlüsselinnovation dieser Generation.

Dem Bericht zufolge informierten Führungskräfte von OpenAI die Mitarbeiter und den Vorstand des Unternehmens im April letzten Jahres über den Verstoß, machten die Details jedoch nicht öffentlich, da keine Kunden- oder Partnerdaten gestohlen worden waren.

Darüber hinaus habe OpenAI die US-amerikanischen Strafverfolgungsbehörden nicht über den Vorfall informiert, hieß es in dem Bericht, weil das Unternehmen davon ausgehe, dass es sich bei dem Hacker um eine Privatperson ohne bekannte Verbindungen zu einer ausländischen Regierung handele.

Siehe auch  Chinesische Behörden nehmen vier Personen im Ransomware-Fall im Zusammenhang mit ChatGPT fest

OpenAI wurde um einen Kommentar gebeten.

Der globale KI-Wettlauf ist für viele Länder zu einer Frage der nationalen Sicherheit geworden. Daher zielen staatlich unterstützte Cybercrime-Gruppen und Söldner aggressiv auf KI-Anbieter ab, von talentierten Start-ups bis hin zu Technologiegiganten wie google oder OpenAI.

Dr. Ilia Kolochenko, ImmuniWeb

Dr. Ilia Kolochenko, Cybersicherheitsexperte und Geschäftsführer des Sicherheitsunternehmens ImmuniWeb, warnte, dass die Angriffe auf KI-Unternehmen angesichts der wachsenden Bedeutung der Technologie wahrscheinlich anhalten und sogar zunehmen würden.

„Obwohl die Einzelheiten des mutmaßlichen Vorfalls von OpenAI noch nicht bestätigt wurden, besteht eine große Wahrscheinlichkeit, dass der Vorfall tatsächlich stattgefunden hat und nicht der einzige ist“, sagte er.

„Der globale Wettlauf um künstliche Intelligenz ist für viele Länder zu einer Frage der nationalen Sicherheit geworden. Aus diesem Grund zielen staatlich unterstützte Cybercrime-Gruppen und Söldner aggressiv auf KI-Anbieter ab, von talentierten Start-ups bis hin zu Technologiegiganten wie Google oder OpenAI.

„Die Hacker konzentrieren ihre Bemühungen vor allem auf den Diebstahl wertvollen geistigen Eigentums, darunter technologische Forschung und Know-how, große Sprachmodelle (LLMs), Quellen für Trainingsdaten sowie kommerzielle Informationen wie Kunden von KI-Anbietern und neuartige Anwendungen von KI in verschiedenen Branchen.

„Komplexere Cyber-Bedrohungen können zudem versteckte Hintertüren einbauen, um die Kontrolle über gehackte KI-Unternehmen kontinuierlich zu behalten und ihren Betrieb plötzlich zu stören oder sogar ganz einzustellen. Dies ist vergleichbar mit den groß angelegten Hackerangriffen, die sich in jüngster Zeit gegen die kritische nationale Infrastruktur (CNI) in westlichen Ländern richteten.

„Alle Unternehmensnutzer von GenAI-Anbietern sollten besonders vorsichtig und umsichtig sein, wenn sie ihre geschützten Daten für LLM-Schulungen oder die Feinabstimmung weitergeben oder Zugriff darauf gewähren, da ihre Daten – die von vertraulichen Informationen zwischen Anwalt und Mandant und Geschäftsgeheimnissen der führenden Industrie- oder Pharmaunternehmen bis hin zu geheimen Militärinformationen reichen – auch im Fadenkreuz KI-hungriger Cyberkrimineller stehen, die bereit sind, ihre Angriffe zu intensivieren.“

Siehe auch  Die Rolle von ChatGPT bei der Unterstützung von Ärzten: Vor- und Nachteile

Zusätzliche Berichterstattung durch Agenturen

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein