Lernen Sie FraudGPT kennen, den bösen Zwilling von chatgpt. Dieses generative KI-Tool lauert im Dark Web und ist in der Lage, Nachrichten zu erstellen, die aussehen, als kämen sie von Ihrer Bank, bösartige Software zu erstellen und Schein-Websites zu erstellen, um ahnungslose Opfer in die Falle zu locken. Netenrich, eine datengesteuerte technische Sicherheitsplattform, macht die Gefahren des FraudGPT-KI-Bots deutlich. Aber das ist nicht der einzige – Cyberkriminelle haben einen Komplizen WurmGPT, ein Tool, das die Erstellung äußerst überzeugender gefälschter E-Mails automatisiert, die auf den Empfänger zugeschnitten sind. Es ist eine erschreckende Erinnerung daran, dass generative künstliche Intelligenz für böswillige Zwecke genutzt werden kann, von aufwändigen Betrügereien über nicht einvernehmliche Pornografie und Desinformationskampagnen bis hin zu biochemischen Waffen.
„Obwohl es sich noch um eine relativ neue Technologie handelt, haben Kriminelle die Möglichkeiten der generativen künstlichen Intelligenz schnell ausgenutzt“, sagte Josep Albors von ESET, einem spanischen Technologie-Sicherheitsunternehmen. Albors weist auf raffinierte, gezielte Phishing-Kampagnen, Desinformations-Blitze und Deepfakes hin – KI-manipulierte Videos, die das Gesicht, den Körper oder die Stimme einer Person verändern oder ersetzen.
Entsprechend google&utm_medium=cpc&gad_source=1&gclid=Cj0KCQiAwbitBhDIARIsABfFYIKGfBTbeEdJQECBpCgbzRuyHXsITye9VZZbeDqg4Lu3i9R2OQcuidoaAnyAEALw_wcB&gclsrc=aw.ds“ target=“_blank“>Proofpoints Fernando Anaya, generative KI ist eher ein evolutionärer als ein revolutionärer Schritt. „Benutzer werden nicht mehr aufgefordert, nach offensichtlichen Grammatik-, Kontext- und Syntaxfehlern zu suchen, um bösartige E-Mails zu erkennen“, sagte er. Jetzt können Angreifer einfach eines dieser Tools auffordern, eine überzeugende und dringende E-Mail zu erstellen, in der die Benutzer aufgefordert werden, ihre Bankkonto- und Routing-Informationen zu aktualisieren. Sie können schnell und einfach E-Mails in mehreren Sprachen erstellen. „Ein LLM [a powerful model trained on vast amounts of data using deep learning techniques] kann die LinkedIn-Profile einer Organisation lesen und maßgeschneiderte E-Mails für jeden Mitarbeiter erstellen. Die E-Mails werden in einwandfreiem Englisch oder Niederländisch personalisiert und auf die spezifischen Interessen des Empfängers zugeschnitten“, warnt das Nationale Zentrum für Cybersicherheit der Niederlande.
Entsprechend Philipp Hacker, Professor an der European New School of Digital Studies, kann generative künstliche Intelligenz genutzt werden, um hochwirksame Malware zu entwickeln, die schwer zu erkennen ist und gezielt auf bestimmte Systeme und Schwachstellen abzielen kann. „Obwohl menschliches Fachwissen für die Entwicklung fortschrittlicher Technologien weiterhin von entscheidender Bedeutung ist [computer] Bei Viren kann künstliche Intelligenz in der Anfangsphase der Entwicklung von Schadsoftware hilfreich sein.“
Der Einsatz solcher Techniken sei noch nicht weit verbreitet, sagte Albors. Allerdings könnten Tools wie FraudGPT oder WormGPT in Zukunft zu einem erheblichen Problem werden. „Mit Hilfe dieser Tools können selbst Personen mit begrenztem technischen Know-how bösartige Kampagnen erstellen, die wahrscheinlich erfolgreich sind. Das bedeutet, dass einzelne Benutzer und Unternehmen mit einer noch größeren Anzahl von Bedrohungen zu kämpfen haben.“
KI-generierte Audio-, Video- und Bilddateien
Je überzeugender ein Betrug ist, desto höher ist die Erfolgswahrscheinlichkeit. Einige nutzen KI, um Audio zu synthetisieren. „Der 'Schweineschlachten„Krypto-Betrug könnte irgendwann von Nachrichten zu Anrufen übergehen, was seine Wirksamkeit steigert“, sagte Anaya. Dieser Betrug hat seinen Namen erhalten, weil Kriminelle die Opfer „mästen“, indem sie ihr Vertrauen gewinnen, und dann alles stehlen, was sie haben. Obwohl der Betrug häufig mit Kryptowährungen in Verbindung gebracht wird, kann er auch auf andere Finanztransaktionen angewendet werden.
Proofpoint hat auch festgestellt, dass Cyberkriminelle diese Technologie nutzen, um Regierungsbeamte zu täuschen. Seine Untersuchung der Mit Russland verbündete TA499-Gruppe enthüllte, wie ihre E-Mail-Kampagnen hochrangige nordamerikanische und europäische Regierungsbeamte sowie CEOs bekannter Unternehmen und Prominente davon überzeugen, an aufgezeichneten Telefongesprächen oder Video-Chats teilzunehmen. Die TA499-Gruppe nutzt KI und andere Methoden, um sich in diesen Videoanrufen als Personen auszugeben und Informationen zu entlocken, die in sozialen Medien gegen sie verwendet werden können.
Generative KI wird auch zur Bearbeitung von Bildern und Videos eingesetzt. Die Stimmen von Fernsehpersönlichkeiten und hochkarätigen Persönlichkeiten wie Elon Musk und dem spanischen Politiker Alberto Núñez Feijóo wurden geklont. „Deepfakes werden oft verwendet, um Kryptowährungsinvestitionen zu fördern, bei denen viele Menschen Geld verlieren“, sagte Josep Albors.
Von Pornografie bis zu biochemischen Waffen
Besonders alarmierend ist der Einsatz generativer KI zur Erstellung nicht einvernehmlicher Pornografie. „Es richtet sich gegen Frauen und verursacht erheblichen persönlichen und beruflichen Schaden“, sagte Philipp Hacker. Letztes Jahr berichteten spanische Schülerinnen über die Verbreitung gefälschter Aktfotos in den sozialen Medien, und auch Prominente wie Rosalía wurden Opfer ähnlicher Angriffe.
KI-Technologie sei auch eingesetzt worden, „um irreführende Bilder von Einwanderern zu erzeugen, die öffentliche Meinung und Wahlen zu beeinflussen und groß angelegte Desinformationskampagnen durchzuführen, die effektiv und überzeugend sind“, sagte Hacker. Nach den verheerenden Waldbränden auf Maui im August 2023 wurden in bestimmten Veröffentlichungen unbegründete Behauptungen aufgestellt, dass sie durch eine geheime „Klimawaffe“ verursacht wurden, die von den Vereinigten Staaten getestet wurde. Die New York Times berichtete, dass diese Fehlinformationskampagne von China angeführt wurde und KI-generierte Bilder verwendete.
Generative künstliche Intelligenz hat Potenzial, das weit über ihre aktuellen Anwendungen hinausgeht. Ein Artikel in Naturmaschinenintelligenz untersucht, wie KI-Technologien für die Arzneimittelforschung für die Entwicklung biochemischer Waffen missbraucht werden könnten. Andere Cybersicherheitsexperten warnen davor, dass Algorithmen kritische Infrastruktursoftware infiltrieren können, „die Grenzen zwischen traditionellen Angriffsszenarien verwischen und es schwierig machen, sie im Rahmen bestehender Gesetze und Vorschriften vorherzusagen und zu bekämpfen.“
Abwehr von FraudGPT und bösartiger KI
Maschinelles Lernen und andere Techniken können Erkennen und blockieren Sie raffinierte Angriffe. Josep Anaya betont jedoch die Notwendigkeit, Benutzer über das Erkennen von Phishing-E-Mails und anderen Bedrohungen aufzuklären. Philipp Hacker sagt, dass die Bewältigung der Risiken des böswilligen Einsatzes von KI regulatorische Maßnahmen, technologische Lösungen und ethische Richtlinien erfordert.
Weitere Abwehrmaßnahmen umfassen den Einsatz unabhängiger Teams mit Tools zur Erkennung von Schwachstellen und das Verbot bestimmter Open-Source-Modelle. „Die Bewältigung dieser Risiken ist aufgrund der konkurrierenden ethischen Ziele im KI-Bereich und der Machbarkeitsprobleme im Zusammenhang mit bestimmten Abwehrmaßnahmen komplex“, sagte Hacker.
Melden Sie sich an für Unser wöchentlicher Newsletter um mehr englischsprachige Berichterstattung von der EL PAÍS USA Edition zu erhalten.