[ad_1]
Im Gegensatz zu chatgpt oder anderen bekannten generativen KI-Tools reagiert WormGPT auf Anfragen, die nach schädlichen Inhalten suchen.
SlashNext, ein E-Mail-Sicherheitsdienst, der den Chatbot getestet hat (Chatbot), warnt davor, dass diese neue Entwicklung einen neuen Vektor für Cyberkriminelle eröffnen könnte, insbesondere bei Angriffen dieser Art Kompromittierung geschäftlicher E-Mails (BEC) oder gefälschter CEO-Betrug.
Eine beeindruckende Waffe zum Greifen nah
WormGPT wurde vom Hacker im März eingeführt und etwas später veröffentlicht. Es ist nicht vor böswilligen Anfragen geschützt, was es von ethischeren KI-Modellen wie ChatGPT oder Googles Bard unterscheidet. Der Entwickler von WormGPT hat seine Absicht zum Ausdruck gebracht, eine Plattform zu schaffen, die es Benutzern ermöglicht, sich an illegalen Aktivitäten zu beteiligen, ohne den Komfort ihres Zuhauses zu verlassen.
Gut darin, gefälschte personalisierte E-Mails zu erstellen
Die potenziellen Gefahren von WormGPT liegen in seiner Fähigkeit, die Erstellung gefälschter und überzeugender E-Mails, die auf Empfänger zugeschnitten sind, zu automatisieren und so die Erfolgsquote von Cyberangriffen zu erhöhen.
Es ist möglich, dem Roboter zu befehlen, Malware mit Python-Code zu erstellen und Ratschläge zur Gestaltung gefährlicher Angriffe zu erhalten. WormGPT verwendet GPT-J, ein älteres großes Sprachmodell, nachdem es anhand von Informationen aus der Malware-Produktion trainiert wurde.
Absichtlich böswillig
Um auf WormGPT zugreifen zu können, müssen Benutzer ein Forum-Konto erstellen und einer umfassenden Anleitung folgen. Wenn Sie jedoch den Dialog (Chatbot) für böswillige Aktivitäten ist illegal und SlashNext rät dringend von der Verwendung ab. Obwohl es theoretisch für harmlose Zwecke genutzt werden könnte, wurde es mit böswilliger Absicht erstellt und verbreitet, was ethische und rechtliche Fragen aufwirft.
Die Gefahren generativer KI gehen über WormGPT hinaus, da die Technologie von Hackern missbraucht werden kann, um Phishing-E-Mails, realistische Fake News und Malware zu generieren. Durch generative KI erzeugte Malware kann in den Computer eines Opfers eindringen und vertrauliche Informationen sammeln. Daher könnten Hacker generative KI als nützliches Werkzeug zur Ausführung schädlicher Angriffe betrachten.
Trotz dieser Risiken gibt es Möglichkeiten, sich gegen generative KI-basierte Angriffe zu verteidigen. Benutzer werden aufgefordert, beim Öffnen von E-Mails und beim Klicken auf Links Vorsicht walten zu lassen. Auch die Aktualisierung von Sicherheitssoftware kann zum Schutz vor Bedrohungen beitragen.
[ad_2]