Laut einem in Singapur ansässigen Cybersicherheitsunternehmen wurden im vergangenen Jahr mehr als 100.000 Anmeldeinformationen für den beliebten KI-Chatbot chatgpt im Dark Web verkauft.
Ein Group-IB-Blogbeitrag vom 20. Juni enthüllte, dass zwischen Juni 2022 und Mai 2023 etwas mehr als 101.000 kompromittierte Logins für den OpenAI-Flaggschiff-Bot auf Darknet-Marktplätzen verkauft wurden.
Die Anmeldeinformationen wurden in den Protokollen der „Informationsdiebstahl-Malware“ gefunden. Im Mai 2023 wurden fast 27.000 ChatGPT-bezogene Anmeldeinformationen auf Online-Schwarzmarktplätzen verfügbar.
Unseren Erkenntnissen zufolge wurde im asiatisch-pazifischen Raum die höchste Konzentration an ChatGPT-Anmeldeinformationen verzeichnet, die zum Verkauf angeboten werden. pic.twitter.com/s3TbsntCgX
– Group-IB Threat Intelligence (@GroupIB_TI) 20. Juni 2023
Im asiatisch-pazifischen Raum gab es im vergangenen Jahr die höchste Anzahl kompromittierter Konten, die zum Verkauf standen; sie machten etwa 40 % der fast 100.000 Ziffern aus.
Ausweise aus Indien belegten mit über 12.500 insgesamt den ersten Platz, während die Vereinigten Staaten bei der Anzahl der durchgesickerten Ausweise den sechsten Platz belegten (fast 3.000). Frankreich belegte hinter den USA den siebten Gesamtrang und belegte in Europa die Pole-Position.
ChatGPT-Konten können direkt über OpenAI erstellt werden. Darüber hinaus können sich Benutzer mit ihren google-, Microsoft- oder apple-Konten anmelden und den Dienst nutzen.
Cointelegraph kontaktierte OpenAI mit der Bitte um einen Kommentar, erhielt jedoch nicht sofort eine Antwort.
Verwandt: Wie KI die Art und Weise verändert, wie Menschen mit Maschinen interagieren
Group-IB gab an, dass die Zahl der Mitarbeiter, die ChatGPT für die Arbeit nutzen, gestiegen sei. Er warnte davor, dass vertrauliche Unternehmensinformationen von unbefugten Benutzern offengelegt werden könnten, da Benutzeranfragen und Chat-Verlauf standardmäßig gespeichert werden.
Solche Informationen können dann von anderen genutzt werden, um Angriffe gegen Unternehmen oder einzelne Mitarbeiter durchzuführen.
Das Unternehmen empfahl Benutzern, ihre Passwörter regelmäßig zu aktualisieren und eine Zwei-Faktor-Authentifizierung zu verwenden, um ChatGPT-Konten besser zu schützen.
Interessanterweise stellte das Unternehmen fest, dass die Pressemitteilung mit Unterstützung von ChatGPT verfasst wurde.
AI Eye: Stellt KI eine Bedrohung auf der Ebene von Atomwaffen dar? Warum entwickeln sich alle KI-Bereiche gleichzeitig, dumme Wortspiele?