Ein aktueller Bericht des singapurischen Cybersicherheitsunternehmens Group-IB weist darauf hin, dass mehr als 100.000 kompromittierte chatgpt-Kontoanmeldeinformationen im Dark Web zum Verkauf angeboten wurden. Dieser Datendiebstahl fand zwischen Juni 2022 und Mai 2023 statt, wobei allein Indien für 12.632 gestohlene Identifikatoren verantwortlich war. Die Anmeldeinformationen wurden in Protokollen von Schadsoftware zum Informationsdiebstahl (Stealer-Protokolle) entdeckt, die im Dark Web zum Verkauf angeboten werden. Der Bericht unterstützt die Position von Unternehmen, die ihren Mitarbeitern die Nutzung von ChatGPT verboten haben, weil sie Bedenken hinsichtlich der Offenlegung von Daten haben, die zum Diebstahl von Geschäftsgeheimnissen führen könnten.

Der Bericht von Group-IB ist ein weiterer Beweis dafür, dass ChatGPT-Benutzer sich davor hüten sollten, dass ihre persönlichen Daten online preisgegeben werden. OpenAI hebt die vorhandenen Sicherheitsmaßnahmen hervor, um den Diebstahl und die Offenlegung der persönlichen Daten von ChatGPT-Benutzern zu verhindern. Der Bericht zeigt jedoch, dass das KI-Labor in San Francisco noch mehr tun muss. Insgesamt behauptet Group-IB, 101.134 kompromittierte ChatGPT-Zugangskonten zum Verkauf auf Dark-Web-Marktplätzen identifiziert zu haben. Nach Angaben des Sicherheitsunternehmens wurden diese Zugangsdaten zwischen Juni 2022 und Mai 2023 gestohlen.

A

Die Anzahl der verfügbaren Protokolle mit kompromittierten ChatGPT-Konten erreichte im Mai 2023 mit 26.802 ihren Höchststand. Das in Singapur ansässige Unternehmen. Allein Indien würde etwa 12.632 Diebstahlidentifikatoren repräsentieren. Die anderen Länder mit der höchsten Anzahl kompromittierter ChatGPT-IDs sind Pakistan, Brasilien, Vietnam, Ägypten, USA, Frankreich, Marokko, Indonesien und Bangladesch. Aufgrund der zunehmenden Akzeptanz von ChatGPT durch Unternehmen warnt Group-IB vor dem hohen Hackerrisiko.

Standardmäßig speichert ChatGPT den Verlauf der Benutzeranfragen und die Antworten des KI-Chatbots. Daher könnte der Zugriff auf das Protokoll Unternehmens- oder Privatgeheimnisse preisgeben. Experten von Group-IB weisen darauf hin, dass immer mehr Mitarbeiter den Chatbot nutzen, um ihre Arbeit zu optimieren, sei es in der Softwareentwicklung oder in der Unternehmenskommunikation. Und viele Unternehmen integrieren ChatGPT in ihren Workflow. „Mitarbeiter geben geheime Übereinstimmungen ein oder nutzen den Roboter, um proprietären Code zu optimieren“, sagte Dmitry Shestakov, Leiter Threat Intelligence bei Group-IB.

Siehe auch  Ich habe ChatGPT gebeten, die Preise von Filecoin zu Beginn des vierten Quartals 2023 vorherzusagen

Shestakov fügte hinzu, dass die Anfrage nach Kontoanmeldeinformationen immer beliebter wird. Aufgrund dieser Risiken haben einige Unternehmen ihren Mitarbeitern die Nutzung von ChatGPT verboten, insbesondere am Arbeitsplatz oder auf elektronischen Geräten, die für den beruflichen Gebrauch vorgesehen sind. Beispielsweise haben sowohl apple als auch Samsung aus Sicherheitsgründen die Nutzung von ChatGPT (oder anderen Chatbots) durch ihre Mitarbeiter verboten. Im Fall von Samsung haben einige Mitarbeiter versehentlich Geheimnisse preisgegeben. Berichten zufolge begannen diese Mitarbeiter, ChatGPT zu verwenden, um Fehler in ihrem Quellcode zu beheben.

Unabhängig davon heißt es in dem Bericht, dass eine weitere Analyse ergab, dass die Mehrheit der Protokolle mit ChatGPT-Kontoanmeldeinformationen von dem berüchtigten Informationsdieb Raccoon (78.348) gehackt wurden, gefolgt von Vidar (12.984) und RedLine (6.773). Malware, die Informationen stiehlt, erfreut sich bei Cyberkriminellen großer Beliebtheit, da sie in der Lage ist, Passwörter, Cookies, Kreditkartendaten und andere Informationen von Browsern sowie Kryptowährungs-Wallet-Erweiterungen zu kapern. Laut Group-IB ist es heute eines der am weitesten verbreiteten Malware-Programme im Internet.

A

Sie werden in der Regel im Rahmen eines abonnementbasierten Preismodells angeboten und haben nicht nur die Messlatte für Cyberkriminalität gesenkt, sondern dienen auch als Kanal für nachfolgende Angriffe mit gestohlenen Anmeldeinformationen. Von Informationsdieben gesammelte Protokolle mit kompromittierten Informationen werden aktiv auf Dark-Web-Marktplätzen gehandelt. „Zu den zusätzlichen Protokollinformationen, die auf diesen Marktplätzen verfügbar sind, gehören Listen der im Protokoll gefundenen Domänen sowie Informationen über die IP-Adresse des kompromittierten Hosts“, sagte Group-IB.

Um das Risiko kompromittierter ChatGPT-Konten zu verringern, empfiehlt Group-IB Benutzern, ihre Passwörter regelmäßig zu aktualisieren und eine Zwei-Faktor-Authentifizierung (2FA) zu implementieren. Durch die Aktivierung von 2FA müssen Benutzer einen zusätzlichen Bestätigungscode angeben, der normalerweise an ihre Mobilgeräte gesendet wird, bevor sie auf ihre ChatGPT-Konten zugreifen können. Wenn es um Unternehmen geht, sagt Group-IB außerdem, dass die Einblicke in Dark-Web-Communities es Unternehmen ermöglichen, zu erkennen, ob ihre sensiblen Daten oder Kundeninformationen durchsickern oder verkauft werden.

Siehe auch  SA-Universitätsprofessoren für ChatGPT-Forschung ausgezeichnet

Echtzeit-Bedrohungsinformationen ermöglichen es ihnen, proaktive Maßnahmen zur Eindämmung der Auswirkungen zu ergreifen, die Betroffenen zu benachrichtigen und ihre Sicherheitslage zu stärken, um weiteren Schaden zu verhindern. Mit Echtzeit-Bedrohungsinformationen können Unternehmen die Bedrohungslandschaft besser verstehen, ihre Vermögenswerte proaktiv schützen und fundierte Entscheidungen treffen, um ihre allgemeine Cybersicherheitslage zu stärken, sagte Group-IB.

Quelle : Gruppe-IB

Und du ?

Fleche Was ist Ihre Meinung zu diesem Thema?

Siehe auch

Fleche Samsung-Softwareentwickler haben bei der Suche nach einer Lösung vertrauliche Daten preisgegeben, indem sie proprietären Code in ChatGPT eingefügt haben

Fleche Apple schränkt die Nutzung von ChatGPT durch seine Mitarbeiter ein und schließt sich anderen Unternehmen an, die sich vor Leaks fürchten, Samsung hat letzten Monat einen ähnlichen Schritt unternommen

Fleche 15 % der Mitarbeiter nutzen und übermitteln ChatGPT eine große Menge an Daten, die sich auf ihre Arbeitgeber beziehen, und 6 % dieser Daten können als sensibel angesehen werden

4.5/5 - (37 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein