Die rasante, kontinuierliche Entwicklung der künstlichen Intelligenz hat vielen Menschen nützliche Werkzeuge an die Hand gegeben, zu denen sie zuvor keinen Zugang hatten. Die Kehrseite der Medaille ist jedoch, dass selbst böswillige Akteure die Technologie zu ihrem Vorteil ausnutzen können.
Insbesondere der viel diskutierte sprechende Roboter chatgpt wurde als potenzielle Sicherheitsbedrohung in der Cyberlandschaft identifiziert, was nun durch Erkenntnisse des IT-Riesen IBM untermauert wird. Die Website berichtet Venturebeat.
ChatGPT im Vergleich zu Menschen getestet
IBMs Sicherheitsabteilung X-Force hat kürzlich ein Forschungsprojekt durchgeführt Dort versuchten sie herauszufinden, wie „gut“ die generative KI-Technologie darin ist, Menschen – im Vergleich zu menschlichen Akteuren – in die Irre zu führen.
Bei dem Projekt wurde ChatGPT verwendet, um E-Mails zu schreiben, die für Phishing gedacht sind, also überzeugende E-Mails, die den Empfänger dazu verleiten sollen, auf schädliche Links zu klicken oder auf schädliche Websites zuzugreifen.
Das Forschungsteam ist im Rahmen seiner Sicherheitsforschung auf das Verfassen von Phishing-Texten spezialisiert, doch selbst mit dieser Erfahrung erwies sich der beliebte sprechende Bot als echte Herausforderung für menschliche Akteure.
Der Test bestand darin, eine von einem eigenen Team erstellte E-Mail an 800 Mitarbeiter eines Unternehmens im Gesundheitswesen zu senden und den Empfänger mit einem Link zum Anklicken aufzufordern. Eine entsprechende E-Mail wurde von ChatGPT generiert und an die gleiche Anzahl an Mitarbeitern in der gleichen Branche verschickt.
Fast die gleiche Klickrate
Die Wahl fiel bewusst auf die Gesundheitsbranche, da diese laut den IBM-Forschern am stärksten von Phishing-Angriffen betroffen ist. Die Erfolgsquote wurde anhand des Anteils der Empfänger ermittelt, die tatsächlich auf die Links in den E-Mails geklickt haben.
Das Ergebnis war, dass die Klickrate der von der KI generierten E-Mail bei 11 Prozent lag, während die von Menschen generierte E-Mail eine Klickrate von 14 Prozent aufwies, also nur unwesentlich höher.
– Mit nur fünf einfachen Anweisungen konnten wir ein generatives KI-Modell (ChatGPT, journ.note) dazu bringen, in nur fünf Minuten äußerst überzeugende Phishing-E-Mails zu entwickeln – genauso viel Zeit, die ich brauche, um eine Tasse Kaffee zuzubereiten, schreiben die Forscher und fügte hinzu:
– Und das KI-generierte Phishing war so überzeugend, dass es das von erfahrenen Social Engineers erstellte fast übertrifft. Aber allein die Tatsache, dass es auf dem gleichen Niveau liegt, ist eine wichtige Entwicklung.
Kommt mit Empfehlungen
Laut den Forschern gibt es eine Reihe von Gründen, warum der Mensch bei der sozialen Manipulation, die Phishing-Angriffen zugrunde liegt, immer noch im Vorteil ist. Dazu gehören die emotionale Intelligenz, die die KI immer noch nicht versteht, und die Bedeutung der Personalisierung.
Basierend auf den Erkenntnissen gibt IBM einige Empfehlungen ab, die das Risiko von Phishing-Angriffen verringern können. Als Faustregel gilt: Nehmen Sie den Hörer in die Hand und rufen Sie den Absender an, wenn Sie sich über die Echtheit der E-Mail nicht sicher sind. Wichtig ist auch, mit alten Stereotypen in Bezug auf Phishing-E-Mails aufzuräumen – etwa, dass solche E-Mails meist mit Rechtschreibfehlern versehen sind.
IBM empfiehlt außerdem die Stärkung der Zugriffskontrollen, um sicherzustellen, dass die richtigen Personen den erforderlichen Zugriff auf die relevanten Systeme haben und ihre Identität überprüft werden kann. Auch kontinuierliche Anpassung und Innovation gehören zu den Empfehlungen des Unternehmens.