Nach Angaben eines singapurischen Cybersicherheitsunternehmens wurden im vergangenen Jahr mehr als 100.000 Anmeldeinformationen für den beliebten Chatbot für künstliche Intelligenz, chatgpt, durchgesickert und im Dark Web gehandelt.

Ein Blog vom 20. Juni Post von Group-IB ergab, dass zwischen Juni 2022 und Mai 2023 etwas mehr als 101.000 kompromittierte Logins für den Flaggschiff-Bot von OpenAI auf Dark-Web-Marktplätzen gehandelt wurden.

Die Anmeldeinformationen wurden in den Protokollen von „Informationen stehlender Malware“ gefunden. Im Mai 2023 wurde ein Höchststand von fast 27.000 ChatGPT-bezogenen Zugangsdaten verzeichnet, die auf Online-Schwarzmärkten verfügbar gemacht wurden.

Im asiatisch-pazifischen Raum standen im vergangenen Jahr die meisten kompromittierten Logins zum Verkauf, sie machten rund 40 % der fast 100.000 Zahl aus.

In Indien ansässige Anmeldeinformationen belegten mit über 12.500 den Spitzenplatz insgesamt, und die Vereinigten Staaten verzeichneten mit fast 3.000 die sechstmeisten online durchgesickerten Anmeldungen. Frankreich belegte hinter den USA den siebten Gesamtrang und übernahm die Pole-Position für Europa.

Die Anzahl der ausgenutzten ChatGPT-Konten im vergangenen Jahr nach Region. Quelle: Gruppe-IB

ChatGPT-Konten können direkt über OpenAI erstellt werden. Darüber hinaus können Benutzer ihre google-, Microsoft- oder apple-Konten verwenden, um sich anzumelden und den Dienst zu nutzen.

Cointelegraph kontaktierte OpenAI mit der Bitte um einen Kommentar, erhielt jedoch nicht sofort eine Antwort.

Verwandt: Wie KI die Art und Weise verändert, wie Menschen mit Maschinen interagieren

Group-IB sagte, es habe einen Anstieg der Zahl der Mitarbeiter festgestellt, die ChatGPT für die Arbeit nutzen. Es warnte davor, dass vertrauliche Informationen über Unternehmen von unbefugten Benutzern offengelegt werden könnten, da Benutzeranfragen und Chat-Verlauf standardmäßig gespeichert werden.

Siehe auch  Top-Tech-News heute, 31. Oktober Asus eröffnet neuen exklusiven Store Der Umsatz von ChatGPT wächst weiter

Solche Informationen könnten dann von anderen ausgenutzt werden, um Angriffe gegen Unternehmen oder einzelne Mitarbeiter durchzuführen.

Das Unternehmen empfahl Benutzern, ihre Passwörter regelmäßig zu aktualisieren und eine Zwei-Faktor-Authentifizierung zu verwenden, um ChatGPT-Konten besser zu schützen.

Interessanterweise stellte das Unternehmen fest, dass die Pressemitteilung mit Unterstützung von ChatGPT verfasst wurde.

KI-Auge: Ist KI eine Bedrohung auf Nuklearwaffenniveau? Warum KI-Felder alle auf einmal voranschreiten, dumme Wortspiele

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein