Group-IB stellte fest, dass mehr als 220.000 Computerprotokolle mit OpenAI chatgpt-Benutzeranmeldeinformationen im Dark Web verkauft wurden, was die zunehmenden Herausforderungen für die KI-Sicherheit widerspiegelt.

ChatGPT ist zu einem unverzichtbaren Bestandteil der Produktivität des Unternehmens geworden. Group-IB, ein in Singapur ansässiger Sicherheitsanbieter, hat kürzlich entdeckt, dass 225.000 Computerprotokolle mit OpenAI ChatGPT-Benutzeranmeldeinformationen in Dark-Web-Foren zum Verkauf angeboten wurden.

Bei diesen Informationen handelt es sich um Benutzergerätedaten, die von Januar bis Oktober 2023 von Stealth-Programmen wie LummaC2, Raccoon und RadLine erfasst wurden. Laut der neuesten Trendstatistik zur Internetkriminalität, die von GroupIB veröffentlicht wurde, wurden von Juni bis Oktober letzten Jahres 130.000 Hosts mit ChatGPT-Zugangsinformationen infiziert. Diese Zahl stieg im Vergleich zu den ersten fünf Monaten des letzten Jahres um 36 %. Die Anzahl der infizierten Hosts Programme, die Geheimnisse stehlen, haben erheblich zugenommen, was zu einem Anstieg der Anzahl von ChatGPT-Zertifikatslecks geführt hat.

Forscher wiesen darauf hin, dass KI-Hacker in der Vergangenheit hauptsächlich darauf abzielten, mit Benutzeranmeldeinformationen in Unternehmensnetzwerke und -systeme einzudringen, nun aber auch daran interessiert sind, die Anmeldeinformationen öffentlicher KI-Systeme von Benutzergeräten abzurufen. Sie können das Brainstorming-Potenzial von LLM nutzen, um neue Geschäftsbetrügereien, überzeugendere Betrügereien und Phishing-Angriffe zu entwickeln und die Effektivität von Abläufen zu verbessern. Sie können auch Aufklärungsoperationen beschleunigen, die Ausführung von Hacking-Tools beschleunigen oder Robo-Betrugsanrufe tätigen, durch die sie Sie erreichen Sie möchten die Protokolle der Kommunikationsaufzeichnungen zwischen Mitarbeitern und Unternehmenssystemen auf dem Gerät abrufen, um nach vertraulicheren Geschäftsinformationen, unternehmensinterner Infrastruktur, Personalauthentifizierungsdaten oder Informationen zum Anwendungsquellcode zu suchen.

Neben dieser Studie haben Microsoft und OpenAI auch darauf hingewiesen, dass staatliche Hacker aus Russland, Nordkorea, dem Iran und China mit KI und LLM experimentieren, um bei der Durchführung komplexerer Angriffe zu helfen.

Siehe auch  Radiomoderator Walters verklagt ChatGPT-Entwickler wegen Verleumdung

Diese Untersuchung spiegelt auch die Aussage der IBM- und Zugriffsverwaltungs-Workload wider.

Quelle:Die Hacker-News

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein