Laut Group-IB wurden in den Protokollen von Malware, die Informationen stiehlt und im vergangenen Jahr auf illegalen Dark-Web-Marktplätzen gehandelt wurde, kompromittierte Anmeldedaten gefunden.

chatgpt-Konten“ title=“101.134 identifizierte Stealer-infizierte Geräte mit gespeicherten ChatGPT-Anmeldeinformationen.“/>

Die Zahl der verfügbaren Protokolle mit kompromittierten ChatGPT-Konten erreichte im Mai 2023 einen Höchststand von 26.802. Den Ergebnissen zufolge verzeichnete die Region Asien-Pazifik im vergangenen Jahr die höchste Konzentration an ChatGPT-Anmeldeinformationen, die zum Verkauf angeboten wurden.

Experten betonen, dass immer mehr Mitarbeiter den Chatbot nutzen, um ihre Arbeit zu optimieren, sei es in der Softwareentwicklung oder in der Geschäftskommunikation. Standardmäßig speichert ChatGPT den Verlauf von Benutzeranfragen und KI-Antworten.

Unautorisierter ChatGPT-Zugriff

Folglich können durch unbefugten Zugriff auf ChatGPT-Konten vertrauliche oder sensible Informationen offengelegt werden, die für gezielte Angriffe auf Unternehmen und deren Mitarbeiter ausgenutzt werden können. Laut Group-IB erfreuen sich ChatGPT-Konten in Untergrundgemeinschaften bereits großer Beliebtheit.

Die Analyse von Untergrundmarktplätzen ergab, dass die meisten Protokolle mit ChatGPT-Konten durch den berüchtigten Raccoon-Informationsdiebstahl gehackt wurden. Die wachsende Beliebtheit des KI-gestützten Chatbots zeigt sich in der im vergangenen Jahr beobachteten stetigen Zunahme kompromittierter ChatGPT-Konten.

Durch die Analyse dieser Informationen identifizierten die Forscher die Länder und Regionen mit der höchsten Konzentration von Stealer-infizierten Geräten mit gespeicherten ChatGPT-Anmeldeinformationen. Im asiatisch-pazifischen Raum wurden zwischen Juni 2022 und Mai 2023 die meisten ChatGPT-Konten von Datenstehlen gestohlen (40,5 %).

„Viele Unternehmen integrieren ChatGPT in ihren Betriebsablauf“, sagt er Dmitri SchestakowLeiter Threat Intelligence bei Group-IB.

„Mitarbeiter geben geheime Korrespondenzen ein oder nutzen den Bot, um proprietären Code zu optimieren. Angesichts der Tatsache, dass die Standardkonfiguration von ChatGPT alle Konversationen speichert, könnte dies den Bedrohungsakteuren unbeabsichtigt eine Fülle sensibler Informationen liefern, wenn sie an Kontoanmeldeinformationen gelangen“, fuhr Shestakov fort.

Siehe auch  ChatGPT als Entwicklungstool? Ja, wenn es mit Bedacht eingesetzt wird

Um die mit kompromittierten ChatGPT-Konten verbundenen Risiken zu mindern, raten Forscher den Benutzern, ihre Passwörter regelmäßig zu aktualisieren und eine Zwei-Faktor-Authentifizierung zu implementieren. Durch die Aktivierung von 2FA müssen Benutzer einen zusätzlichen Bestätigungscode angeben, der normalerweise an ihre Mobilgeräte gesendet wird, bevor sie auf ihre ChatGPT-Konten zugreifen.

Durch den Einblick in Dark-Web-Communities können Unternehmen erkennen, ob ihre sensiblen Daten oder Kundeninformationen preisgegeben oder verkauft werden. Mithilfe von Echtzeit-Bedrohungsinformationen können Unternehmen die Bedrohungslandschaft besser verstehen, ihre Vermögenswerte proaktiv schützen und fundierte Entscheidungen treffen, um ihre allgemeine Cybersicherheitslage zu stärken.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein