Mindestens 225.000 Sätze von OpenAI-Zugangsdaten wurden letztes Jahr im Dark Web zum Verkauf angeboten, die möglicherweise für den Zugriff auf vertrauliche Daten verwendet werden könnten, die an chatgpt gesendet wurden.

ChatGPT-Konten, die durch Information-Stealer-Malware kompromittiert wurden, wurden von Forschern der Group-IB zwischen Januar und Oktober 2023 entdeckt, deren Ergebnisse in Group-IB veröffentlicht wurden Hi-Tech-Kriminalitätstrendsbericht 2023/2024 am Donnerstag.

Die gestohlenen Zugangsdaten waren Teil von Protokollen, die auf Dark-Web-Marktplätzen zum Verkauf angeboten wurden und von Geräten stammten, die mit Infostealern wie LummaC2, Raccoon und RedLine infiziert waren. Diese Malware-Tools suchen und sammeln vertrauliche Daten, die auf infizierten Geräten gespeichert sind, wie z. B. Anmeldeinformationen und Finanzinformationen.

Zwischen den ersten fünf Monaten und den letzten fünf Monaten der Forschung von Group-IB gab es einen Anstieg der durchgesickerten Zugangsdaten für den ChatGPT-Zugang um 36 %, wobei zwischen Juni und Oktober 2023 mehr als 130.000 infizierte Hosts entdeckt wurden, verglichen mit knapp 96.000 zwischen Januar und Mai. Im letzten Monat der Studie kam es mit insgesamt 33.080 Vorfällen zu den meisten Diebstählen von OpenAI-Zugangsdaten.

LummaC2 war zwischen Juni und Oktober 2023 mit 70.484 Fällen die häufigste Quelle für Infostealer-Protokolle mit ChatGPT-Anmeldeinformationen, gefolgt von Raccoon und RedLine mit jeweils weniger als 23.000 Fällen.

Dies ist eine Abweichung von früheren Daten der Group-IB, die zeigten, dass Raccoon zwischen Juni 2022 und Mai 2023 der mit Abstand häufigste Dieb von OpenAI-Daten war (mehr als 78.000 Infektionen), gefolgt von Vidar und RedLine.

„Viele Unternehmen integrieren ChatGPT in ihren Betriebsablauf. „Mitarbeiter geben geheime Korrespondenzen ein oder nutzen den Bot, um proprietären Code zu optimieren“, sagte Dmitry Shestakov, Head of Threat Intelligence bei Group-IB, letztes Jahr in einer Erklärung. „Angesichts der Tatsache, dass die Standardkonfiguration von ChatGPT alle Konversationen speichert, könnte dies den Bedrohungsakteuren unbeabsichtigt eine Fülle sensibler Informationen liefern, wenn sie an Kontoanmeldeinformationen gelangen.“

Siehe auch  Steigern Sie Ihre Kreativität mit ChatGPT und anderen leistungsstarken Tipps und Tools

Mitarbeiter geben sensible Daten und vertrauliche Dokumente in ChatGPT ein

Diese neuesten Zahlen zur Kompromittierung von ChatGPT-Konten kommen zu einem Zeitpunkt, an dem immer mehr Erkenntnisse über den riskanten Einsatz generativer KI durch Unternehmensmitarbeiter gewonnen werden.

Ein Juni 2023 Bericht von LayerX fanden heraus, dass 6 % der Unternehmensmitarbeiter mindestens einmal sensible Daten in Gen-KI-Anwendungen eingefügt haben und dass 4 % „wöchentlich“ sensible Daten in diese Anwendungen eingefügt haben. Von diesen Offenlegungen umfassten 43 % interne Geschäftsdaten, 31 % Quellcode und 12 % personenbezogene Daten (PII).

A ähnliche Studie von Cyberhaven vom Juni 2023, das sich speziell auf ChatGPT konzentrierte, lieferte ähnliche Ergebnisse. Diese Untersuchung ergab, dass 4,7 % der Mitarbeiter vertrauliche Daten in ChatGPT einfügten und dass die Vorfälle, bei denen vertrauliche Daten an ChatGPT weitergegeben wurden, pro 100.000 Mitarbeiter zwischen dem 4. März und dem 15. April dieses Jahres um 60,4 % zunahmen.

Kürzlich sagte Menlo Security in einem Bericht vom Februar 2024, dass es zwischen Juli und Dezember 2023 einen Anstieg der Versuche von Unternehmensmitarbeitern, Dateien auf Gen-AI-Websites hochzuladen, um 80 % gegeben habe. Möglicherweise liegt dies daran, dass OpenAI die Möglichkeit für Premium-Benutzer hinzugefügt hat Laden Sie Dateien im Oktober direkt auf ChatGPT hoch.

Bemerkenswert ist, dass laut Menlo Security fast 40 % der versuchten sensiblen Eingaben in Gen-KI-Apps vertrauliche Dokumente und mehr als die Hälfte personenbezogene Daten beinhalteten.

OpenAI selbst erlitt im März 2023 ein Datenleck aufgrund einer Schwachstelle, die die Namen, E-Mail-Adressen und Zahlungsinformationen von 1,2 % der ChatGPT Plus-Benutzer offenlegte.

Menlo Security empfiehlt Unternehmen einen mehrschichtigen Ansatz, um zu verhindern, dass sensible Informationen durch den Einsatz von Gen-KI nach außen dringen. Dazu kann die Implementierung von Copy-and-Paste-Kontrollen gehören, die verhindern, dass große Textmengen oder bekanntermaßen proprietärer Code in Eingabefelder eingefügt werden, und die Einführung von Sicherheitskontrollen auf Gruppenebene der Gen-KI, anstatt Websites der Gen-KI domänenweise zu blockieren .

Siehe auch  Apple entwickelt ein revolutionäres Analogon von ChatGPT, das alle Daten auf dem iPhone speichert
5/5 - (336 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein