chatgpt chat screen on a laptop computer and logo on a smartphone arranged in the Brooklyn borough of New York, US, on Thursday, March 9, 2023.” data-testid=”image” class=”jsx-1560264765 i-amphtml-layout-responsive i-amphtml-layout-size-defined” i-amphtml-layout=”responsive”>

Der ChatGPT-Chat-Bildschirm auf einem Laptop-Computer und das Logo auf einem Smartphone, angeordnet im New Yorker Stadtteil Brooklyn, USA, am Donnerstag, 9. März 2023.

Gabby Jones | Bloomberg | Getty Images

Hier ist eine Gruppe, die generative künstliche Intelligenz-Tools erfolgreich nutzt: Cyberkriminelle.

Seit dem vierten Quartal 2022 gibt es sie ein Anstieg der bösartigen Phishing-E-Mails um 1.265 %Laut einem neuen Bericht des Cybersicherheitsunternehmens SlashNext ist insbesondere das Anmeldedaten-Phishing um 967 % gestiegen.

Der Bericht, der auf den Bedrohungsinformationen des Unternehmens und einer Umfrage unter mehr als 300 nordamerikanischen Cybersicherheitsexperten basiert, stellt fest, dass Cyberkriminelle generative künstliche Intelligenz-Tools wie ChatGPT nutzen, um beim Verfassen anspruchsvoller, gezielter Business Email Compromise (BEC) und anderer Phishing-Nachrichten zu helfen.

Der Studie zufolge wurden täglich durchschnittlich 31.000 Phishing-Angriffe verschickt. Fast die Hälfte der befragten Cybersicherheitsexperten gaben an, einen BEC-Angriff erhalten zu haben, und 77 % von ihnen gaben an, Ziel von Phishing-Angriffen zu sein.

„Diese Ergebnisse untermauern die Bedenken hinsichtlich des Einsatzes generativer KI, der zu einem exponentiellen Wachstum von Phishing beiträgt“, sagte Patrick Harr, CEO von SlashNext. „KI-Technologie ermöglicht es Bedrohungsakteuren, die Geschwindigkeit und Vielfalt ihrer Angriffe zu erhöhen, indem sie den Code in Malware modifizieren oder Tausende von Variationen von Social-Engineering-Angriffen erstellen, um die Erfolgswahrscheinlichkeit zu erhöhen.“

Die Ergebnisse des Berichts verdeutlichen, wie schnell KI-basierte Bedrohungen zunehmen, insbesondere in Bezug auf Geschwindigkeit, Umfang und Komplexität, sagte Harr.

„Es ist kein Zufall, dass die Einführung von ChatGPT Ende letzten Jahres mit dem Zeitraum zusammenfällt, in dem wir ein exponentielles Wachstum bösartiger Phishing-E-Mails sahen“, sagte Harr. „Generative KI-Chatbots haben die Einstiegshürde für unerfahrene Angreifer deutlich gesenkt und geschickteren und erfahreneren Angreifern die Werkzeuge an die Hand gegeben, mit denen sie gezielte Spear-Phishing-Angriffe in großem Umfang starten können.“

Siehe auch  Warum riskieren OpenAI und Microsoft eine Geldstrafe von 3 Milliarden Dollar?

Ein weiterer Grund für die starke Zunahme von Phishing-Angriffen sei, dass sie funktionieren, sagte Harr. Er zitierte die Internetkriminalitätsbericht des FBIdem zufolge allein BEC im Jahr 2022 etwa 2,7 Milliarden US-Dollar an Verlusten und weitere 52 Millionen US-Dollar an Verlusten durch andere Arten von Phishing verursachte.

„Mit Belohnungen wie dieser verstärken Cyberkriminelle zunehmend ihre Angriffe auf Phishing- und BEC-Versuche“, sagte Harr.

Zwar gab es einige Debatten über den tatsächlichen Einfluss generativer KI auf cyberkriminelle Aktivitäten, „aber wir wissen aus unserer Forschung, dass Bedrohungsakteure Tools wie ChatGPT nutzen, um schnelllebige Cyber-Bedrohungen zu verbreiten und dabei zu helfen, anspruchsvolle und zielgerichtete Bedrohungen zu verfassen.“ [BEC] und andere Phishing-Nachrichten“, sagte Harr.

Beispielsweise entdeckten SlashNext-Forscher im Juli ein BEC, das ChatGPT und ein Cybercrime-Tool namens WormGPT nutzte, „das sich als Black-Hat-Alternative zu GPT-Modellen darstellt und speziell für böswillige Aktivitäten wie das Erstellen und Starten von BEC-Angriffen entwickelt wurde“, sagte Harr .

Nach der Entstehung von WurmGPTBerichte über einen weiteren böswilligen Chatbot namens BetrugGPT, sagte Harr. „Dieser Bot wurde als ‚exklusives‘ Tool vermarktet, das auf Betrüger, Hacker, Spammer und ähnliche Personen zugeschnitten ist und über eine umfangreiche Liste von Funktionen verfügt“, sagte er.

Eine weitere gravierende Entwicklung, die SlashNext-Forscher entdeckt haben, betrifft die Bedrohung durch KI-„Jailbreaks“, bei denen Hacker geschickt die Barrieren für die legale Nutzung von Gen-KI-Chatbots entfernen. Auf diese Weise können Angreifer Tools wie ChatGPT in Waffen verwandeln, die Opfer dazu verleiten, persönliche Daten oder Anmeldeinformationen preiszugeben, was zu weiteren schädlichen Angriffen führen kann.

„Cyberkriminelle nutzen generative KI-Tools wie ChatGPT und andere Modelle zur Verarbeitung natürlicher Sprache, um überzeugendere Phishing-Nachrichten zu generieren“, einschließlich BEC-Angriffen, sagte Chris Steffen, Forschungsdirektor beim Analysten- und Beratungsunternehmen Enterprise Management Associates.

Siehe auch  Newegg fügt eine ChatGPT-gestützte Funktion hinzu, um Sie vor der Lähmung der Bewertungsanalyse zu bewahren

„Vorbei sind die Zeiten der ‚Prince of Nigeria‘-E-Mails, die in gebrochenem, fast unleserlichem Englisch versuchten, potenzielle Opfer davon zu überzeugen, ihre Ersparnisse zu schicken“, sagte Steffen. „Stattdessen klingen die E-Mails äußerst überzeugend und legitim und ahmen oft den Stil derjenigen nach, die die Bösewichte imitieren, oder ähneln der offiziellen Korrespondenz von vertrauenswürdigen Quellen“, etwa von Regierungsbehörden und Finanzdienstleistern.

„Sie können mithilfe von KI frühere Schriften und andere öffentlich verfügbare Informationen analysieren, um ihre E-Mails äußerst überzeugend zu gestalten“, sagte Steffen.

Beispielsweise könnte ein Cyberkrimineller mithilfe von KI eine E-Mail an einen bestimmten Mitarbeiter generieren, sich als Chef oder Vorgesetzter dieser Person ausgeben und auf ein Firmenereignis oder ein relevantes persönliches Detail verweisen, wodurch die E-Mail authentisch und vertrauenswürdig erscheint.

Führungskräfte im Bereich Cybersicherheit können eine Reihe von Maßnahmen ergreifen, um den zunehmenden Angriffen entgegenzuwirken und darauf zu reagieren, sagte Steffen. Zum einen können sie eine kontinuierliche Aus- und Weiterbildung der Endbenutzer anbieten.

„Cybersicherheitsexperten müssen etwas leisten [users] sich dieser Bedrohung ständig bewusst sind; „Eine einfache einmalige Erinnerung wird dieses Ziel nicht erreichen“, sagte Steffen. „Sie müssen auf diesen Schulungen aufbauen und in ihrer Umgebung eine Sicherheitsbewusstseinskultur etablieren, in der die Endbenutzer Sicherheit als geschäftliche Priorität betrachten.“ Fühlen Sie sich wohl, wenn Sie verdächtige E-Mails und sicherheitsrelevante Aktivitäten melden.“

Eine weitere gute Vorgehensweise ist die Implementierung von E-Mail-Filtertools, die maschinelles Lernen und KI nutzen, um Phishing-E-Mails zu erkennen und zu blockieren. „Diese Lösungen müssen ständig aktualisiert und optimiert werden, um vor sich ständig weiterentwickelnden Bedrohungen und Aktualisierungen der KI-Technologien zu schützen“, sagte Steffen.

Siehe auch  ChatGPT-3 und ChatGPT-4 nebeneinander im Leistungsvergleich

Unternehmen müssen außerdem regelmäßige Tests und Sicherheitsüberprüfungen der Systeme durchführen, die ausgenutzt werden können. „Sie müssen Tests durchführen, um Schwachstellen und Schwachstellen in den Abwehrmaßnahmen der Organisation zu identifizieren – und auch Mitarbeiter schulen – und gleichzeitig bekannte Probleme umgehend angehen, um die Angriffsfläche zu verringern“, sagte Steffen.

Schließlich müssen Unternehmen ihre bestehende Sicherheitsinfrastruktur je nach Bedarf implementieren oder erweitern. „Wahrscheinlich kann keine Lösung alle von der KI generierten E-Mail-Angriffe abwehren, daher müssen Cybersicherheitsexperten über mehrschichtige Abwehrmaßnahmen und ausgleichende Kontrollen verfügen, um anfängliche Verstöße zu verhindern“, sagte Steffen. „Einführung einer Zero-Trust-Strategie.“ [can] Wir können viele dieser Kontrolllücken schließen und den meisten Unternehmen eine tiefgreifende Verteidigung bieten.“

5/5 - (214 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein