- Cybersicherheitsforscher haben kompromittierte Anmeldedaten von chatgpt-Konten identifiziert, die zwischen 2022 und 2023 auf Dark-Web-Marktplätzen gehandelt wurden.
- Der Zugriff auf die Zugangsdaten erfolgte über mit Stealern infizierte Geräte, wobei die meisten geleakten Daten aus der Region Asien-Pazifik stammten.
Laut einem Threat-Intelligence-Bericht von Forschern des Cybersicherheitsunternehmens Group-IB wurden im Jahr 2023 über 200.000 Sätze von ChaGPT-Anmeldeinformationen von OpenAI auf Dark-Web-Marktplätzen zum Verkauf angeboten. ChatGPT-Konten wurden offenbar durch die Ausnutzung von Information-Stealer-Malware wie RedLine und LummaC2 auf Zielgeräten kompromittiert.
Dem Bericht zufolge wurde zwischen Juni und Oktober 2023 ein Anstieg der geleakten ChatGPT-Anmeldeinformationen um 36 % festgestellt, verglichen mit dem Zeitraum zwischen Januar und Mai 2023. LummaC2 erwies sich als das am häufigsten verwendete Tool für Datenlecks. Darüber hinaus waren Ziele im asiatisch-pazifischen Raum am häufigsten, gefolgt von Europa und dem Nahen Osten.
Mehr sehen: SubdoMailing Exposé: Massive Domain-Hijacking-Kampagne, die für Anzeigenbetrug, Malvertising und Phishing-E-Mails genutzt wird
Darüber hinaus wurden in dieser Zeit ChatGPT-ähnliche Tools entwickelt, darunter WormGPT, WolfGPT, DarkBARD und FraudGPT, die durch Social Engineering und Phishing-Strategien genutzt wurden, um Infostealer-Malware-Aktivitäten zu ermöglichen.
Die Entwicklung verdeutlicht die Bedrohungen durch KI im Zusammenhang mit sensiblen Unternehmensdaten. Mitarbeiter geben zu Arbeitszwecken häufig vertrauliche Informationen oder proprietären Code in Chatbots ein und bieten so potenziell böswilligen Akteuren Zugang zu sensiblen Informationen.
Berichten zufolge geben über 4 % der Mitarbeiter sensible Daten in KI-Chatbots ein, darunter Geschäftsinformationen, persönlich identifizierbare Informationen und Quellcode. Es unterstreicht die Notwendigkeit für Unternehmen, Best Practices durchzusetzen, einschließlich Kontrollen über Kopier- und Einfügeaktionen und Sicherheitskontrollen auf Gruppenebene für KI-Interaktionen.
Was halten Sie von Bedenken hinsichtlich der Datensicherheit im Zusammenhang mit KI-Technologie? Teilen Sie uns Ihre Meinung dazu mit LinkedIn, Xoder Facebook. Wir würden uns freuen, von Ihnen zu hören!
Bildquelle: Shutterstock
NEUESTE NACHRICHTEN