OpenAI, das Unternehmen hinter dem Chatbot chatgpt mit künstlicher Intelligenz (KI), erlebte Anfang 2023 eine Sicherheitsverletzung. Laut einem Bericht der New York Times verschaffte sich ein Hacker Zugriff auf die internen Nachrichtensysteme des Unternehmens und stahl Details seiner KI-Technologien. Hacker stahl Details aus OpenAIs Diskussionsforum Unter Berufung auf zwei mit dem Vorfall vertraute Personen heißt es in dem Bericht, die Details zu den KI-Systemen von OpenAI seien aus einem Online-Diskussionsforum entnommen worden, in dem Mitarbeiter die neuesten Technologien diskutierten. Dem Hacker sei es jedoch nicht gelungen, in das System einzudringen, in dem OpenAI seine KI betreibt und entwickelt, heißt es in dem Bericht. OpenAI gab den Verstoß nicht öffentlich bekannt Dem Bericht zufolge gaben die Führungskräfte von OpenAI den Mitarbeitern den Verstoß im April 2023 während einer Vollversammlung bekannt. Sie teilten die Neuigkeiten jedoch nicht öffentlich mit, da keine Informationen über Kunden oder Partner gestohlen worden seien, teilten Quellen der NYT mit. „Die Führungskräfte betrachteten den Vorfall nicht als Bedrohung der nationalen Sicherheit, da sie davon ausgingen, dass es sich bei dem Hacker um eine Privatperson ohne bekannte Verbindungen zu einer ausländischen Regierung handelte. Das Unternehmen informierte die Strafverfolgungsbehörden nicht“, heißt es in dem Bericht. Im Mai dieses Jahres gab das von Microsoft unterstützte Unternehmen bekannt, dass es fünf verdeckte Einflussoperationen gestört habe, die versuchten, seine künstlichen Intelligenzmodelle für „irreführende Aktivitäten“ im Internet zu nutzen. OpenAI erklärte daraufhin, dass die Bedrohungsakteure seine KI-Modelle in den letzten drei Monaten verwendet hätten, um kurze Kommentare, längere Artikel in verschiedenen Sprachen, erfundene Namen und Biografien für Social-Media-Konten zu generieren. OpenAI behauptete auch, es habe ein israelisches Unternehmen daran gehindert, sich in die Wahlen zur indischen Lok Sabha einzumischen, und nannte die Operation „Zero Zero“. Das von Microsoft finanzierte Großunternehmen für künstliche Intelligenz sagte, es habe den betrügerischen Einsatz von KI durch das israelische Unternehmen STOIC innerhalb von 24 Stunden gestoppt und so jegliche nennenswerte Beeinträchtigung des Wahlprozesses verhindert.
Siehe auch  Der Gründer von ChatGPT hat gerade ein neues Produkt angekündigt und Unternehmen stehen bereits Schlange, um es zu nutzen. Wie können Anleger davon profitieren?
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein