• Cybersicherheitsforscher haben kompromittierte Anmeldedaten von chatgpt-Konten identifiziert, die zwischen 2022 und 2023 auf Dark-Web-Marktplätzen gehandelt wurden.
  • Der Zugriff auf die Zugangsdaten erfolgte über mit Stealern infizierte Geräte, wobei die meisten geleakten Daten aus der Region Asien-Pazifik stammten.

Laut einem Threat-Intelligence-Bericht von Forschern des Cybersicherheitsunternehmens Group-IB wurden im Jahr 2023 über 200.000 Sätze von ChaGPT-Anmeldeinformationen von OpenAI auf Dark-Web-Marktplätzen zum Verkauf angeboten. ChatGPT-Konten wurden offenbar durch die Ausnutzung von Information-Stealer-Malware wie RedLine und LummaC2 auf Zielgeräten kompromittiert.

Dem Bericht zufolge wurde zwischen Juni und Oktober 2023 ein Anstieg der geleakten ChatGPT-Anmeldeinformationen um 36 % festgestellt, verglichen mit dem Zeitraum zwischen Januar und Mai 2023. LummaC2 erwies sich als das am häufigsten verwendete Tool für Datenlecks. Darüber hinaus waren Ziele im asiatisch-pazifischen Raum am häufigsten, gefolgt von Europa und dem Nahen Osten.

Mehr sehen: SubdoMailing Exposé: Massive Domain-Hijacking-Kampagne, die für Anzeigenbetrug, Malvertising und Phishing-E-Mails genutzt wird

Darüber hinaus wurden in dieser Zeit ChatGPT-ähnliche Tools entwickelt, darunter WormGPT, WolfGPT, DarkBARD und FraudGPT, die durch Social Engineering und Phishing-Strategien genutzt wurden, um Infostealer-Malware-Aktivitäten zu ermöglichen.

Die Entwicklung verdeutlicht die Bedrohungen durch KI im Zusammenhang mit sensiblen Unternehmensdaten. Mitarbeiter geben zu Arbeitszwecken häufig vertrauliche Informationen oder proprietären Code in Chatbots ein und bieten so potenziell böswilligen Akteuren Zugang zu sensiblen Informationen.

Berichten zufolge geben über 4 % der Mitarbeiter sensible Daten in KI-Chatbots ein, darunter Geschäftsinformationen, persönlich identifizierbare Informationen und Quellcode. Es unterstreicht die Notwendigkeit für Unternehmen, Best Practices durchzusetzen, einschließlich Kontrollen über Kopier- und Einfügeaktionen und Sicherheitskontrollen auf Gruppenebene für KI-Interaktionen.

Was halten Sie von Bedenken hinsichtlich der Datensicherheit im Zusammenhang mit KI-Technologie? Teilen Sie uns Ihre Meinung dazu mit LinkedInÖffnet ein neues Fenster , XÖffnet ein neues Fenster oder FacebookÖffnet ein neues Fenster . Wir würden uns freuen, von Ihnen zu hören!

Siehe auch  Wir haben ChatGPT gebeten, einen Urlaub in Kapstadt zu planen – und haben es mit einem echten Reisebüro verglichen

Bildquelle: Shutterstock

NEUESTE NACHRICHTEN

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein