[ad_1]
Cyberkriminelle haben ihre eigenen Sprach-KI-Modelle entwickelt, die ihnen beim Phishing und der Erstellung von Malware helfen. Erste Versionen findet man bereits im Darknet
Monate nachdem ChatGPT von OpenAI die Startup-Wirtschaft revolutioniert hat, haben Cyberkriminelle und Hacker damit begonnen, ihre eigenen Versionen der Textgenerierungstechnologie zu entwickeln. Diese Systeme können es Angreifern unter anderem ermöglichen, bösartige E-Mails oder Phishing-E-Mails zu schreiben, die Menschen dazu verleiten, ihre Benutzernamen und Passwörter preiszugeben.
Seit Anfang Juli preisen Angreifer in Darknet-Foren und -Marktplätzen zwei große Sprachmodelle (LLMs) an, die sie angeblich entwickelt haben. Es wird behauptet, dass diese Systeme die Funktionen von ChatGPT und Bard nachahmen und Antworten auf alle Benutzerfragen generieren. Doch im Gegensatz zu LLMs, die von seriösen Unternehmen erstellt werden, werden diese Chatbots für illegale Aktivitäten verkauft.
Es gibt ungeklärte Fragen zur Authentizität von Chatbots. Cyberkriminelle sind keine absolut zuverlässigen Charaktere und es besteht die Möglichkeit, dass sie versuchen, schnell Geld zu verdienen, indem sie sich gegenseitig täuschen. Unabhängig davon kommt diese Entwicklung zu einer Zeit, in der Betrüger den Hype um generative künstliche Intelligenz für ihren eigenen Vorteil ausnutzen.
Wozu ist die KI von Cyberkriminellen in der Lage? WormGPT- und FraudGPT-Analyse
Laut Sicherheitsforschern, die diese Aktivität verfolgen, wurden in den letzten Wochen zwei Chatbots, WormGPT und FraudGPT, in Dark-Web-Foren beworben. LLMs, die von großen Technologieunternehmen wie google, Microsoft und OpenAI entwickelt wurden, verfügen über eine Reihe von Schutzmaßnahmen und Sicherheitsmaßnahmen, um Missbrauch zu verhindern. Wenn Sie sie bitten, Malware zu erstellen oder Hassreden zu verwenden, werden sie normalerweise ablehnen.
Zwielichtige LLM-Autoren behaupten, dass ihre Bots solche Sicherheitssysteme und ethischen Barrieren missachten. WormGPT wurde erstmals vom unabhängigen Cybersicherheitsforscher Daniel Kelly entdeckt, der mit SlashNext zusammenarbeitete, um die Daten genauer zu untersuchen. Die Entwickler von WormGPT behaupten, dass das Tool unbegrenzte Zeichen- und Codeformatierung bietet.
„KI-Modelle sind besonders nützlich für Phishing, auch weil sie die Eintrittsbarrieren für viele unerfahrene Cyberkriminelle senken“, bemerkt Kelly. „Viele argumentieren, dass die meisten Cyberkriminellen eine E-Mail auf Englisch schreiben können, aber das ist bei vielen Betrügern nicht unbedingt der Fall.“
Beim Testen des Systems, schreibt Kelly, wurde sie gebeten, eine E-Mail zu erstellen, die als Teil eines geschäftlichen E-Mail-Hacking-Betrugs verwendet werden könnte, bei dem der CEO angeblich an einen Kundenbetreuer schreibt, um eine dringende Zahlung zu melden.
„Die Ergebnisse waren beunruhigend“, schreibt Kelly in ihrer Studie. „Das System hat eine E-Mail erstellt, die nicht nur äußerst überzeugend, sondern auch strategisch geschickt war.“
Interessant zum Thema: Ein neues Schema zum Hacken von iOS-basierten Krypto-Wallets ist aufgetaucht
WerbewurmGPT und FraudGPT im Darknet
In Forenbeiträgen behauptete der Entwickler von WormGPT, dass das System auf GPTJ basiert, einem Open-Source-Sprachmodell, das 2021 von der EleutherAI-Forschungsgruppe entwickelt wurde. Kellys Recherchen zufolge weigerten sie sich, die Datensätze preiszugeben, die sie zum Trainieren des Systems verwendeten.
Unterdessen behauptet der Erfinder von FraudGPT, dass sein System über mehr Potenzial verfügt, und deutet an, dass es nicht erkennbare Malware erzeugen, Lecks und Schwachstellen finden und Texte erstellen kann, die für Online-Betrügereien verwendet werden können. Rakesh Krishnan, leitender Bedrohungsanalyst bei der Firma Netenrich, die FraudGPT entdeckt hat, sagt, dass die Person, die es verkauft, das Produkt in mehreren dunklen Foren und auf Telegram-Kanälen beworben hat.
Krishnan bemerkte, dass der Ersteller des Systems ein Video gepostet habe, das zeigt, wie der Chatbot läuft und eine betrügerische E-Mail generiert. Sie versuchten auch, den Zugang zum System für 200 US-Dollar pro Monat oder 1.700 US-Dollar pro Jahr zu verkaufen.
Dem Analysten zufolge gab der FraudGPT-Entwickler während des Anrufs an, bereits mehrere hundert Abonnenten zu haben. Im Gegenzug schien der Ersteller von WormGPT Zahlungen an eine gemeinsame Kryptowährungs-Wallet-Adresse zu erhalten.
„Alle diese Projekte stecken noch in den Kinderschuhen“, sagt Krishnan. „Wir haben nicht viele Rückmeldungen darüber erhalten, ob die Leute diese Systeme kaufen oder nutzen.
Ist es wirklich ein einzigartiges „wundersames“ Werkzeug für Cyberkriminelle?
Trotz einer umfangreichen Werbekampagne im Darknet reichen verlässliche Informationen über die Realität von WormGPT und FraudGPT sowie den Nutzen ihrer Funktionalität nicht aus. Es ist sehr schwierig, die Zusammensetzung und Legitimität dieser Systeme zu überprüfen. Gleichzeitig zeigen frühere Untersuchungen von Analysten, dass Cyberkriminelle häufig andere Betrüger täuschen.
Sergey Shikevich, Leiter des Threat-Intelligence-Teams bei Check Point (einer leistungsstarken IT-Cybersicherheitsmarke mit Hauptsitz in Tel Aviv, Israel), sagt, es gebe einige Hinweise darauf, dass Menschen WormGPT bereits aktiv nutzen.
„Es sieht so aus, als gäbe es ein echtes Werkzeug“, sagt Shikevich. Der Verkäufer hinter dem Tool sei relativ zuverlässig und habe Erfahrung in Foren zur Cyberkriminalität, sagte er.
Shikevich fügt hinzu, dass sein einziger Beitrag über WormGPT mehr als 100 Antworten erhielt, obwohl einige von ihnen behaupten, dass das Programm ihre Bedürfnisse nicht wirklich erfüllt und sie nicht begeistert waren.
Shikevich ist sich der Echtheit von FraudGPT weniger sicher. Gleichzeitig behauptet der Entwickler dieses Systems, dass er auch über andere KIs verfügt: DarkBard und DarkBert.
Beliebt nach Thema: Ein neuer Ausbruch von Cyberangriffen wurde registriert: So schützen Sie sich
KI-Tools von Cyberkriminellen bleiben hinter den Originalen zurück? Warnung der Strafverfolgungsbehörden
Der Check Point-Forscher sagt, es gebe keinen Hinweis darauf, dass eines der Systeme leistungsfähiger sei als ChatGPT, Bard oder andere kommerzielle LLMs.
Daniel Kelly hält die bisher erstellten Behauptungen böswilliger LLMs für „etwas übertrieben“. Aber er fügt hinzu: „Es unterscheidet sich nicht unbedingt von dem, was seriöse Unternehmen schaffen.“ Seiner Meinung nach werden Kriminelle den Boom der künstlichen Intelligenz auf jeden Fall ausnutzen.
Das US-amerikanische FBI hat gewarnt, dass Cyberkriminelle erwägen, bei ihrer Arbeit generative KI einzusetzen, und die europäische Strafverfolgungsbehörde Europol hat eine ähnliche Warnung herausgegeben. Strafverfolgungsbehörden sagen, dass Cyberkriminelle viele Experten, darunter auch Anwälte, in ihre Entwicklungen einbeziehen, um ein neues Niveau zu erreichen.
Cyberkriminelle nutzen immer Trends aus
Jedes Mal, wenn ein neues Produkt, eine neue Dienstleistung oder ein neues Ereignis die Aufmerksamkeit der Öffentlichkeit auf sich zieht – von einem Barbie-Film bis zur Covid-19-Pandemie –, nehmen Betrüger es in ihre Hacker-Artillerie auf. Bisher haben Betrüger Menschen mit gefälschten Anzeigen für ChatGPT, Bard, midjourney und andere generative KI-Systeme auf Facebook dazu verleitet, Malware herunterzuladen, die Passwörter stiehlt.
Heutzutage erreicht der Einsatz von KI durch Betrüger ein neues Niveau. Insbesondere Forscher von Sophos (Cybersicherheitsexperten) stellten interessante Trends fest, als Betreiber verschiedener betrügerischer Unternehmen Fehler machten und durch künstliche Intelligenz generierte Phrasen in den Korrespondenztext einfügten, wie zum Beispiel: „Als Sprachmodell habe ich keine Gefühle und.“ Emotionen wie Menschen.“
Hacker stahlen auch Token, die ihnen im großen Stil Zugriff auf die OpenAI-API und Chatbots verschafften.
In seinem Bericht über WormGPT stellt Kelly fest, dass Cyberkriminelle häufig Jailbreaks (einen Mechanismus zum Hacken von beispielsweise Telefonen) teilen, mit denen Sie Sicherheitsbeschränkungen umgehen können, die von den Entwicklern beliebter LLMs festgelegt wurden. Aber selbst unbegrenzte Versionen dieser Modelle sind in ihrer aktuellen Form für Cyberkriminelle glücklicherweise möglicherweise nicht so nützlich.
Shikevich, ein Forscher bei Check Point, sagt, selbst als er sah, wie Cyberkriminelle versuchten, öffentliche Modelle zu nutzen, waren diese nicht effektiv.
„Sie können Arten von Ransomware und Informationsdieben erstellen, aber nicht besser als ein gewöhnlicher Entwickler“, stellt der Experte fest.
Gleichzeitig warnte er, dass in Foren zur Cyberkriminalität aktiv über die Erstellung eigener Klone bekannter LLM-Systeme diskutiert wird, die sich erwartungsgemäß nur weiterentwickeln werden. Daher sollten sich sowohl Unternehmen als auch Privatpersonen auf eine mögliche neue Welle von Cyberangriffen vorbereiten.
Schauen Sie sich andere beliebte Inhalte an:
Eine Untersuchung von OpenAI hat begonnen: Was ihnen vorgeworfen wird
Was xAI tun wird – Elon Musks neues Unternehmen
Moody’s bereitet zusammen mit Microsoft und OpenAI eine revolutionäre Technologie für Fintech vor
[ad_2]