Hacker würden nicht davor zurückschrecken, künstliche Intelligenz auszunutzen. Mit der russischen, chinesischen, iranischen oder nordkoreanischen Regierung verbundene Hacker nutzen chatgpt, um Schwachstellen in Computersystemen zu identifizieren, „Phishing“-Operationen vorzubereiten oder Antivirensoftware zu deaktivieren, berichten OpenAI und Microsoft in am Mittwoch veröffentlichten Dokumenten.
In einer auf seiner Website veröffentlichten Nachricht gibt OpenAI an, dass es den Einsatz generativer künstlicher Intelligenz (KI) durch diese parastaatlichen Akteure in Zusammenarbeit mit Microsoft Threat Intelligence, einer Einheit, die die Bedrohungen für Unternehmen auflistet, „gestört“ hat Cybersicherheit ist wichtig. „Die OpenAI-Konten, die als mit diesen Akteuren verbunden identifiziert wurden, wurden geschlossen“, sagte der Schöpfer der generativen KI-Schnittstelle ChatGPT.
Emerald Sleet, eine nordkoreanische Hackergruppe, und Crimson Sandstorm, eine Verbindung zu den iranischen Revolutionsgarden, nutzten den Chatbot, um Dokumente zu generieren, die für „Phishing“ verwendet werden könnten, heißt es in der Studie. Beim „Phishing“ handelt es sich darum, sich einem Internetnutzer unter falscher Identität vorzustellen, um von ihm illegalen Zugriff auf Passwörter, Codes, Identifikatoren oder direkt auf nicht öffentliche Informationen und Dokumente zu erhalten. Crimson Sandstorm verwendete laut Microsoft auch Sprachmodelle (LLM), die Grundlage generativer KI-Schnittstellen, um besser zu verstehen, wie Antivirensoftware deaktiviert werden kann.
Weigerung, einer Piratengruppe in der Nähe von Peking zu helfen
Die Gruppe Charcoal Typhoon, die als den chinesischen Behörden nahestehend gilt, nutzte ChatGPT, um im Vorfeld möglicher Computerangriffe Schwachstellen zu erkennen.
„Ziel der Partnerschaft zwischen Microsoft und OpenAI ist es, den sicheren und verantwortungsvollen Einsatz von Technologien zu gewährleisten, die darauf basierenkünstliche Intelligenz, wie ChatGPT, laut Microsoft. Die Gruppe aus Redmond (Washington State) gibt an, dass sie dazu beigetragen hat, den Schutz der Sprachmodelle (LLM) von OpenAI zu stärken. In dem Bericht heißt es, dass die Schnittstelle sich geweigert habe, einer anderen der chinesischen Regierung nahestehenden Hackergruppe, Salmon Typhoon, dabei zu helfen, Computercode für Hacking-Zwecke zu generieren und damit „die in die Software integrierten ethischen Regeln einzuhalten“.
„Wenn wir verstehen, wie die fortschrittlichsten Bedrohungsakteure unsere Programme für bösartige Zwecke nutzen, erfahren wir, welche Praktiken in Zukunft möglicherweise häufiger auftreten werden“, sagt OpenAI. „Wir werden keinen böswilligen Versuch blockieren können“, warnt das Unternehmen. „Aber indem wir weiterhin innovativ sind, zusammenarbeiten und teilen, machen wir es für schlechte Akteure schwieriger, unbemerkt zu bleiben. »