chatgpt liegt voll im Trend und Cybersicherheitsexperten haben zweifellos Angst vor den zahlreichen Anwendungen des KI-Chatbots durch Bedrohungsakteure.

Aber sind Cyberkriminelle tatsächlich so daran interessiert, ChatGPT zu nutzen, um ihre Fähigkeiten zu verbessern? Oder ist diese Angst unbegründet?

Das Forschungsteam von Sophos versuchte, dieses Cyber-Rätsel zu lösen, indem es mehrere offene Foren untersuchte, um herauszufinden, was Bedrohungsakteure – die oft an der Spitze neuer technologischer Fortschritte stehen, um ihre heimtückischen Ziele besser zu erreichen – wirklich über den aufstrebenden Star der Technologie denken.

Es ist keine Überraschung, dass dies Anlass zur Sorge gibt – kurz nach der Einführung von ChatGPT tauchten bewusst für Cyberkriminalität entwickelte Alternativen auf, darunter WormGPT und FraudGPT. Dadurch wurden einige der Leitplanken anderer generativer KI-Chatbot-Modelle entfernt, sodass Kriminelle beispielsweise auf Anweisungen zum Bau von Bomben, zum Einbruch in Safes oder zum Verfassen überzeugender Phishing-Texte und E-Mails zugreifen konnten.

Diese waren in Phishing- und Cyberkriminalitätsforen im Darknet verfügbar, und es besteht kaum ein Zweifel daran, dass sie von Bedrohungsakteuren zum Verfassen von Phishing-E-Mails verwendet wurden, um Anmeldeinformationen zu stehlen oder betrügerische Zahlungen zu erhalten.

Bei der weiteren Untersuchung dieser Einsatzmöglichkeiten sind die Foren von Cyberkriminellen jedoch nach wie vor nicht von den revolutionären Fähigkeiten der genAI überzeugt, und nur wenige haben Möglichkeiten im Zusammenhang mit ihrer Integration außerhalb der Abfassung klarerer, korrekterer Texte erörtert.

Wie nutzen Bedrohungsakteure LLMS?

Nach der Untersuchung von vier Dark-Web-Foren – Exploit, XSS, Breach Forums und Hackerforums – war Sophos‘ erster Eindruck, dass Large Language Models (LLMs) sicherlich kein heißes Thema waren. Zum Zeitpunkt der Untersuchung gab es exponentiell weniger Beiträge zu LLMs als zu Kryptowährungen, was zeigt, dass das Dark Web den Hype nicht ganz akzeptiert.

Siehe auch  Die Besorgnis über KI nimmt seit der Einführung von ChatGPT zu

Einer der häufigsten Threads, die die Forscher fanden, betraf das Jailbreaking von LLM-Modellen. In diesem Fall bedeutet Jailbreaking die Umgehung der Selbstzensur und der Schutzmaßnahmen, die die meisten LLMs mit sich bringen und die schädliche, illegale und unangemessene Reaktionen blockieren.

In diesem Zusammenhang entdeckten sie auch eine Reihe gefälschter GPTs, die behaupteten, diese Leitplanken bereits entfernt zu haben, sodass sie von Bedrohungsakteuren ausgenutzt werden könnten.

Trotz der Fülle an Optionen waren viele Benutzer dieser Foren von deren Prahlereien und Fähigkeiten nicht überzeugt.


Literatur-Empfehlungen


Nachdem WormGPT beispielsweise große Aufmerksamkeit in den Medien auf sich gezogen hatte, nahm es einige seiner Fähigkeiten zurück und sagte, es handele sich lediglich um eine „halb unzensierte KI“, die einige ihrer „dunkleren“ Funktionen blockierte.

FraudGPT erhielt jedoch in Foren Gegenreaktionen, weil es seine Fähigkeiten übertrieb, nachdem es behauptete, „eine Reihe von Malware zu generieren, die Antivirensoftware nicht erkennen kann“.

„Kurze Antwort ist NEIN“, antwortete ein Benutzer, als ein anderer fragte, ob das wahr sei.

In der Erklärung erklärten sie detailliert, wie sich FaudGPT wie alle anderen Formen auf öffentlich verfügbare Daten stützte, um Malware zu entwickeln, sodass es wahrscheinlich war, dass der Malware-Code, selbst wenn er funktionieren könnte, von Antivirensoftware erkannt würde.

Soweit in diesen Foren Malware tatsächlich mithilfe von KI generiert wurde, schien keine davon ausgefeilt oder neu zu sein.

Während einige Bedrohungsakteure die Bots zum Übersetzen von Texten nutzen, nutzen andere sie, um einfachen Code zu generieren oder Daten zu testen.

Trotz Widerstand und Skepsis setzen Hackerforen auch Chatbots ein, um automatisch auf häufig gestellte Fragen zu antworten.

Siehe auch  Amerikanische Experten erklären, warum ChatGPT in Simbabwe nicht verfügbar ist

Es sieht so aus, als ob ChatGPT nach wie vor für einige Zwecke gut ist, aber seine Verwendung durch Bedrohungsakteure ist vorerst eine Mischung aus einfachen Problemumgehungen, theoretischer Malware und Übersetzungstools.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein