Der chatgpt-Trend hat die Welt erfasst. Nur wenige Monate nach ihrer Veröffentlichung erreichte die KI-Chatbot-App 100 Millionen aktive Benutzer im Februar und der letzte Wert für April wurde auf 1,6 Mrd. geschätztDamit ist sie die am schnellsten wachsende Verbraucheranwendung, die jemals eingeführt wurde – und übertrifft sogar die Social-Media-Plattformen TikTok und Instagram. Darüber hinaus haben google, Microsoft und Baidu Pläne für eine KI-gestützte Suche angekündigt und damit den KI-Weltraumwettlauf in eine neue Phase katapultiert.
Während viele die Vorteile von ChatGPT lobten (einschließlich der Fähigkeit, Datenrauschen zu analysieren, um raffinierte Angriffssignale zu finden), warnten Cybersicherheitsexperten auch, dass der zunehmende Einsatz solcher KI-gestützter Technologie Risiken birgt – und die Arbeit erleichtern könnte von Betrügern und Cybercrime-Syndikaten.
Berichten zufolge gab es beispielsweise eine 135 % Anstieg neuartiger Social-Engineering-Angriffs-E-Mails in den ersten beiden Monaten des Jahres 2023ein Anstieg, der zufälligerweise mit der Akzeptanzrate von ChatGPT übereinstimmt.
Bereiten Sie sich auf das KI-Wettrüsten vor
Technologie ist ein zweischneidiges Schwert. Bei dauerhafter Nutzung hat ChatGPT dank seiner schnellen Inhaltserstellung und Sprachverarbeitungsfunktionen das Potenzial, Unternehmen wertvolle Zeit und Geld zu sparen.
Bei Missbrauch kann diese Anwendung der KI jedoch eine Waffe für Kriminelle sein, um der Öffentlichkeit noch größeren Schaden zuzufügen. Diese Chatbots, die KI-Sprachmodelle zur Generierung von Inhalten verwenden, erschweren die Erkennung von Phishing-Betrügereien. Unter Phishing versteht man eine Art Online-Betrug, bei dem Kriminelle E-Mails oder Textnachrichten versenden, in denen sie sich als Regierungsvertreter, Bankangestellte oder Behörden ausgeben, um Menschen dazu zu bringen, vertrauliche Informationen wie Benutzernamen, Passwörter oder andere persönliche Daten preiszugeben.
In der Vergangenheit war eine Phishing-E-Mail oder -Textnachricht aufgrund der fehlerhaften Rechtschreibung und/oder Grammatik relativ leicht zu erkennen. Jetzt erstellt ChatGPT Inhalte ohne Grammatikfehler, während umständliche Formulierungen schnell herausgeschnitten und überprüft werden können, damit Phishing-Nachrichten auch in anderen Sprachen als Englisch überzeugend wirken.
Mit diesen Fortschritten ist es für Benutzer nun schwieriger, legitime und betrügerische Nachrichten genau zu identifizieren. Glücklicherweise hat sich die Authentifizierungstechnologie weiterentwickelt und entlastet Benutzer von dieser Belastung, die sie eigentlich nie hätten tragen sollen.
Erweitern Sie den Schutz der Benutzer durch passwortlose Authentifizierung
Es ist klar, dass Phishing nicht verschwinden wird und Technologien wie ChatGPT in ihrer Wirksamkeit immer weiter voranschreiten. Es gab eine Menge 47,2 % Anstieg der Phishing-Angriffe im Jahr 2022 im Vergleich zum Vorjahr allein. Um die Bedrohung durch Phishing abzuwehren, ist es notwendig, die wertvollsten Informationen zu entwenden, nach denen Kriminelle bei diesen Angriffen suchen: Passwörter.
Indem wir Passwörter während des Authentifizierungsprozesses eliminieren, entfernen wir diese hochgeschätzten Anmeldeinformationen, die Kriminelle „phishing“ wollen. Stattdessen steht Benutzern jetzt eine Technologie zur Verfügung, mit der sie sich durch einfachere, aber stärkere Methoden authentifizieren können, die nicht auf Passwörter oder andere für Menschen lesbare „Geheimnisse“ angewiesen sind. Diese Methoden basieren auf fortschrittlicher Kryptographie in Verbindung mit Biometrie auf dem Gerät, die auf den meisten Geräten in sehr benutzerfreundlichen Formaten verfügbar ist. Mit nur einer Fingerberührung oder einem schnellen Gesichtsscan können sich Benutzer sicher und nahtlos in ihre Konten einloggen – ohne befürchten zu müssen, ihre Zugangsdaten unwissentlich an Betrüger oder über gefälschte Websites weiterzugeben.
Verhinderung des Missbrauchs und Missbrauchs von KI-Chatbots
Für jede neue Technologie müssen Governance- und ethische Rahmenbedingungen geschaffen werden, um die Grenzen dessen, was zulässig ist und was nicht, für die Verwendung solcher Tools klar festzulegen. Während ChatGPT behauptet, in seine Programmierung Schutzfunktionen integriert zu haben, um zu verhindern, dass böswillige Akteure die Plattform missbrauchen, haben Cybersicherheitsexperten wie die von Check Pointhaben ihren Erfolg bei der Umgehung dieser Leitplanken unter Beweis gestellt, indem sie den KI-Chatbot angewiesen haben, eine denkbare Phishing-E-Mail zu verfassen.
ChatGPT ist lediglich der neueste technologische Fortschritt, der als Tool genutzt (oder kooptiert) werden kann, um Cyberkriminellen dabei zu helfen, persönliche Daten und Anmeldeinformationen effektiver zu erfassen. Unser Fazit sollte nicht darin bestehen, den Fortschritt zu stoppen, sondern zu verstehen, dass sich Cyberkriminelle kontinuierlich weiterentwickeln und Phishing immer eine Bedrohung darstellen wird. Unsere Priorität sollte nicht darin bestehen, den Einsatz solcher Tools im Namen der Cybersicherheit einzuschränken, sondern vielmehr darin, Phishing zu bekämpfen, indem wir Einzelpersonen weniger Authentifizierungsdaten zur Verfügung stellen, die sie preisgeben können, angefangen bei Passwörtern.
Celia Ong / Shutterstock.com