Die Cybersicherheitsforscher von Kaspersky haben mehr als 3.000 Beiträge im Dark Web aufgedeckt, in denen Bedrohungsakteure versuchen, chatgpt, den KI-gestützten Chatbot von OpenAI, zu missbrauchen oder böswillig auszunutzen.
Die Schattenseite des Internets, das Dark Web, hat sich von einer Drehscheibe für gestohlene Daten und illegale Transaktionen zu einem Nährboden für die Entwicklung KI-gestützter Tools zur Cyberkriminalität entwickelt, berichtet der Kaspersky Digital Footprint Intelligence Service.
Die Ergebnisse basieren auf Kasperskys Beobachtung von Diskussionen in Dark-Web-Foren im Jahr 2023. KI-Technologien (Künstliche Intelligenz) werden für illegale Aktivitäten genutzt, wobei Bedrohungsakteure Jailbreaks über Dark-Web-Kanäle teilen und legitime Tools für böswillige Zwecke nutzen.
Im September 2023 berichtete Hackread, dass SlashNext-Forscher Bedrohungsakteure entdeckten, die erfolgreiche Jailbreaks auf KI-Chatbots fördern und Phishing-E-Mails schreiben. Diese Akteure verkaufen Jailbreak-Versionen beliebter KI-Tools.
Besonders hervorzuheben ist die Präferenz von Cyberkriminellen für ChatGPT und Large Language Model (LLM), die Aufgaben vereinfachen und die Zugänglichkeit von Informationen verbessern, aber neue Sicherheitsrisiken mit sich bringen, da Cyberkriminelle sie für böswillige Zwecke nutzen können.
Bedrohungsakteure prüfen Pläne zur Implementierung von ChatGPT und KI, einschließlich der Entwicklung von Malware und der illegalen Verwendung von Sprachmodellen, erklärte Alisa Kulishenko, Analystin für den digitalen Fußabdruck bei Kaspersky.
Cybersicherheitsbedrohungen wie FraudGPT und bösartige Chatbots waren wiederkehrende Themen in Diskussionen im Dark Web-Forum. Das ganze Jahr über wurden fast 3.000 Beiträge beobachtet, deren Höhepunkt im März 2023 lag. Gestohlene ChatGPT-Konten sind ebenfalls ein beliebtes Thema, wobei es mehr als 3.000 Anzeigen gibt.
Laut Kaspersky zwischen Januar und Dezember 2023 BerichtIn Foren zur Cyberkriminalität wurde regelmäßig über die Verwendung von ChatGPT für illegale Aktivitäten diskutiert. In einem Beitrag ging es darum, wie man mit GPT polymorphe Malware generiert, die schwerer zu erkennen und zu analysieren ist als normale Malware.
In einem anderen Beitrag wurde vorgeschlagen, die OpenAI-API zu verwenden, um Code mit spezifischer Funktionalität zu generieren und gleichzeitig Sicherheitsprüfungen zu umgehen. Obwohl mit dieser Methode keine Schadsoftware entdeckt wurde, ist dies möglich.
Durch ChatGPT generierte Antworten können Aufgaben lösen, für die zuvor Fachwissen erforderlich war, und die Eintrittsschwellen in verschiedene Bereiche, einschließlich krimineller Bereiche, senken, indem eine einzige Eingabeaufforderung für die Verarbeitung bestimmter Zeichenfolgenformate bereitgestellt wird. KI wird zur Selbstoptimierung in Malware integriert, wobei Viren aus dem Benutzerverhalten lernen, um Angriffe anzupassen.
KI-gestützte Bots erstellen personalisierte Phishing-E-Mails und manipulieren Benutzer, um vertrauliche Informationen preiszugeben. Cyberkriminelle nutzen auch Deepfakes, bei denen KI verwendet wird, um hyperrealistische Simulationen zu erstellen, sich als Berühmtheiten/Persönlichkeiten auszugeben oder Finanztransaktionen zu manipulieren, wodurch ahnungslose Benutzer leicht getäuscht werden.
Darüber hinaus stellten die Forscher fest, dass Foren für Cyberkriminelle ChatGPT-ähnliche Tools für Standardaufgaben integrieren, wobei Bedrohungsakteure Jailbreaks verwenden, um zusätzliche Funktionen freizuschalten. Im Jahr 2023 wurden 249 Angebote zum Verkauf dieser Prompt-Sets entdeckt.
Open-Source-Tools zur Verschleierung von PowerShell-Code werden zu Forschungszwecken weitergegeben, ihre einfache Zugänglichkeit kann jedoch Cyberkriminelle anlocken. Projekte wie WormGPT und FraudGPT geben Anlass zur Sorge und Entwickler warnen vor Betrug und Phishing-Seiten, die Zugriff auf diese Tools bieten.
Dies stellt Cybersicherheitsexperten und Strafverfolgungsbehörden vor eine große Herausforderung, da herkömmliche Erkennungsmethoden gegen KI-gestützte Bedrohungen unbrauchbar werden. Zur Bekämpfung dieser Bedrohung müssen neue Strategien und Instrumente entwickelt werden.
Es ist unerlässlich, in KI-gestützte Sicherheitslösungen zu investieren, beim Öffnen verdächtiger E-Mails, Links und Anhänge vorsichtig zu sein und sich über die neuesten Trends bei Cyberkriminalität und KI auf dem Laufenden zu halten.
VERWANDTE THEMEN
- Das KI-Tool Mockingbird von McAfee erkennt Deepfake-Audio
- Russische Hacker sind bestrebt, Beschränkungen für den Missbrauch von ChatGPT zu umgehen
- Forscher erstellen mit ChatGPT polymorphe Blackmamba-Malware
- China verhaftet vier Personen, die ChatGPT für Ransomware-Angriffe als Waffe eingesetzt haben
- OpenAI startet ChatGPT Bug Bounty-Programm – Verdienen Sie 200 bis 20.000 US-Dollar