Jetzt können Menschen der generativen KI nicht nur beliebige Fragen stellen, sie auffordern, Programme zu schreiben und Berichte zu erstellen, sondern was noch erschreckender ist: Selbst Menschen, die nichts über Programme wissen, können damit automatisch Phishing-Betrugsbriefe generieren. Seitdem scheint die Eintrittsschwelle für Hacker völlig geebnet zu sein.
Viele Experten glauben, dass leistungsstarke KI nicht nur die Arbeitsplätze vieler Menschen ersetzen wird, sondern möglicherweise sogar eine Bedrohung für das Überleben der Menschheit darstellt. Als sie entschieden die Einstellung der generativen KI-Forschung und -Entwicklung forderten, tauchte still und leise eine dunkle Version von ChatGPT namens „WormGPT“ im Internet auf. Dieses Tool ermöglicht es jedem mit bösen Absichten, aber ohne technisches Hintergrundwissen, die KI auf einfache Weise zu bitten, Phishing-Betrugsbriefe zu generieren, was in Zukunft zur größten versteckten Sorge für die Netzwerksicherheit werden wird.
Das Cybersicherheitsunternehmen SlashNext hat bestätigt, dass der generative KI-Bot rein bösartig ist und für raffinierte Phishing- und Betrugsangriffe entwickelt wurde. „Das Team hat kürzlich das Tool ‚WormGPT‘ über ein bekanntes Forum erworben, das oft mit Cyberkriminalität in Verbindung gebracht wird.“BerichtZha Shuzheng entdeckte die Besonderheiten bösartiger Tools. „Das Tool ist eine Black-Hat-Alternative zum ChatGPT-Modell, die für bösartige Operationen entwickelt wurde.“
Ein Team von Cybersicherheitsexperten hat speziell die Gefahren der Generierung bösartiger Nachrichten durch WormGPT getestet und die Ergebnisse waren beunruhigend. Die von der KI erzeugten bösartigen Informationen sind nicht nur bemerkenswert und überzeugend in Bezug auf die Angriffsmethoden, sondern auch äußerst raffiniert in der Angriffsstrategie, was das Potenzial einer vollständigen Anwendbarkeit auf komplexe Phishing- und BEC-Betrugsangriffe, die das Gesicht verändern, voll und ganz demonstriert.
WormGPT ähnelt ChatGPT, hat aber kein moralisches Endergebnis. Es ist auch der jüngste Fall, bei dem generative KI-Modelle zu einer Bedrohung für die Informationssicherheit geworden sind. In Zukunft könnten generative KI-Cyberangriffe in großer Zahl strömen, schließlich hat es die Schwelle für die Durchführung von Cyberangriffen überschritten. Mit anderen Worten: Selbst ein unerfahrener Cyberkrimineller kann einen verheerenden Angriff starten.
Der Weg, generative KI-Phishing-Betrugsbriefe zu verhindern, ist eigentlich derselbe wie in der Vergangenheit, aber aufgrund der Einfachheit, solche Angriffe in Zukunft zu „durchführen“, könnte die Zahl größer und häufiger sein.
(Quelle des ersten Bildes:SchrägstrichWeiter)
Neue Erkenntnisse aus Wissenschaft und Technik, die von Zeit zu Zeit aktualisiert werden