KI hat schnell einen großen Platz in unserem täglichen Leben erobert und ihre Möglichkeiten sind zahlreich, wie zum Beispiel die Vorhersage des Todeszeitpunktes. Es gibt jedoch einige Gefahren, die Sie beachten sollten. Darunter das Risiko, dass diese Technologie für groß angelegte Angriffe missbraucht wird. Und dies hat laut Microsoft und OpenAI bereits begonnen.

Microsoft und OpenAI warnen vor dem Missbrauch von KI

Die beiden Unternehmen behaupten, dass mehrere Hackergruppen generative KI-Tools nutzen, um ihre Angriffe zu verstärken. Wir sprechen hier von Teams, die von Staaten wie Russland, China, Nordkorea und sogar dem Iran unterstützt werden. Doch wie hilft KI Hackern bei der Durchführung dieser Angriffe?

Laut Microsoft und OpenAI wird KI beim Code-Debugging, bei der Suche nach Open-Source-Informationen zur Erkennung von Zielen, bei der Stärkung von Social-Engineering-Techniken oder sogar bei der Generierung von Daten eingesetzt. Textgenerierung für Phishing. Hacker übersetzen auch Texte, um beispielsweise Opfer anzugreifen, die nicht dieselbe Sprache sprechen. Grundlegende Funktionalitäten, die jedoch bei richtiger Anwendung bei Internetnutzern verheerende Auswirkungen haben können.

Hacker, die von feindlichen Regierungen unterstützt werden, nutzen KI

Seit der Entdeckung dieses Missbrauchs hat OpenAI den Zugang zu generativer KI wie chatgpt oder Copilot für bestimmte Gruppen gesperrt. Darunter Forest Blizzard (auch Fancy Bear oder APT 12 genannt), das mit dem russischen Regime in Verbindung steht.

Der Bericht spricht von einer Gruppe namens Emerald Street oder Thallium aus Nordkorea. Mittels KI werden mittels Spear-Phishing, also Identitätsdiebstahl, falsche Bewertungen über Universitäten oder Vereine verfasst. Hacker nutzten diese Technologie auch, um die Follina-Schwachstelle (CVE-2022-30190) im Hardware-Diagnosetool von Microsoft besser zu verstehen. Die iranische Gruppe Curium wiederum generierte Phishing-E-Mails oder sogar Code, um betrügerische Websites zu erstellen.

Siehe auch  China verliert wegen ChatGPT nicht den Schlaf – The Diplomat

Charcoal Typhoon, eine chinesische Gruppe, führte in Frankreich mithilfe von KI Angriffe durch, die sich mit Social Engineering vor allem gegen Hochschulbildung oder Energie richteten. China finanziert auch Salmon Typhoon, das die Vereinigten Staaten ins Visier nahm, indem es mithilfe dieser Technologie geheime Informationen ans Licht brachte.

Allerdings deutet nichts darauf hin, dass diese Maßnahme ausreichen wird, um die Piraten zu stoppen. Wir gehen davon aus, dass diese von unfreundlichen Regierungen unterstützten Teams über die Mittel verfügen, wieder Zugang zu diesen KI-Tools zu erhalten.

Werbung, Ihr Inhalt wird unten fortgesetzt
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein