Group-IB stellte fest, dass mehr als 220.000 Computerprotokolle mit OpenAI chatgpt-Benutzeranmeldeinformationen im Dark Web verkauft wurden, was die zunehmenden Herausforderungen für die KI-Sicherheit widerspiegelt.
ChatGPT ist zu einem unverzichtbaren Bestandteil der Produktivität des Unternehmens geworden. Group-IB, ein in Singapur ansässiger Sicherheitsanbieter, hat kürzlich entdeckt, dass 225.000 Computerprotokolle mit OpenAI ChatGPT-Benutzeranmeldeinformationen in Dark-Web-Foren zum Verkauf angeboten wurden.
Bei diesen Informationen handelt es sich um Benutzergerätedaten, die von Januar bis Oktober 2023 von Stealth-Programmen wie LummaC2, Raccoon und RadLine erfasst wurden. Laut der neuesten Trendstatistik zur Internetkriminalität, die von GroupIB veröffentlicht wurde, wurden von Juni bis Oktober letzten Jahres 130.000 Hosts mit ChatGPT-Zugangsinformationen infiziert. Diese Zahl stieg im Vergleich zu den ersten fünf Monaten des letzten Jahres um 36 %. Die Anzahl der infizierten Hosts Programme, die Geheimnisse stehlen, haben erheblich zugenommen, was zu einem Anstieg der Anzahl von ChatGPT-Zertifikatslecks geführt hat.
Forscher wiesen darauf hin, dass KI-Hacker in der Vergangenheit hauptsächlich darauf abzielten, mit Benutzeranmeldeinformationen in Unternehmensnetzwerke und -systeme einzudringen, nun aber auch daran interessiert sind, die Anmeldeinformationen öffentlicher KI-Systeme von Benutzergeräten abzurufen. Sie können das Brainstorming-Potenzial von LLM nutzen, um neue Geschäftsbetrügereien, überzeugendere Betrügereien und Phishing-Angriffe zu entwickeln und die Effektivität von Abläufen zu verbessern. Sie können auch Aufklärungsoperationen beschleunigen, die Ausführung von Hacking-Tools beschleunigen oder Robo-Betrugsanrufe tätigen, durch die sie Sie erreichen Sie möchten die Protokolle der Kommunikationsaufzeichnungen zwischen Mitarbeitern und Unternehmenssystemen auf dem Gerät abrufen, um nach vertraulicheren Geschäftsinformationen, unternehmensinterner Infrastruktur, Personalauthentifizierungsdaten oder Informationen zum Anwendungsquellcode zu suchen.
Neben dieser Studie haben Microsoft und OpenAI auch darauf hingewiesen, dass staatliche Hacker aus Russland, Nordkorea, dem Iran und China mit KI und LLM experimentieren, um bei der Durchführung komplexerer Angriffe zu helfen.
Diese Untersuchung spiegelt auch die Aussage der IBM- und Zugriffsverwaltungs-Workload wider.
Quelle:Die Hacker-News
Verwandt