Daran besteht kein Zweifel: chatgptder KI-Chatbot von OpenAI, ist äußerst beliebt und hat Chatbots und KI-Sprachmodelle scheinbar im Alleingang in den Mainstream gebracht.
Doch mit dieser Popularität gehen auch einige Nebenwirkungen einher. Zum einen sind ChatGPT-Konten mittlerweile ein Hauptziel für Hacker.
In einem neuen, kürzlich veröffentlichten Bericht(öffnet sich in einem neuen Tab)Forscher des Cybersicherheitsunternehmens Group-IB teilen mit, dass sie im vergangenen Jahr über 101.000 kompromittierte ChatGPT-Anmeldeinformationen zum Verkauf auf Dark-Web-Marktplätzen gefunden haben.
ChatGPT vs. Bing vs. Bard: In dieser Chatbot-Arena können Sie die Besten auswählen
ChatGPT gekreuzt 100 Millionen Nutzer im Februar, nur wenige Monate nach der ersten Veröffentlichung. Da jedoch die Beliebtheit des KI-Chatbots im Laufe der Monate zugenommen hat, ist auch die Zahl der gestohlenen Anmeldedaten für ChatGPT-Konten gestiegen. Group-IB gab an, letzten Monat mehr als 26.800 ChatGPT-Zugangsdaten gefunden zu haben, ein Höchstwert seit Beginn der Datenverfolgung.
Der Tweet wurde möglicherweise gelöscht (öffnet sich in einem neuen Tab)
Forscher der Group-IB sagen, dass die meisten dieser gestohlenen ChatGPT-Anmeldeinformationen dank der beliebten Raccoon-Malware abgerufen wurden. Raccoon funktioniert genauso wie einfache Malware und stiehlt Informationen vom Computer eines Ziels, nachdem der Benutzer die Software heruntergeladen hat, die oft als App oder Datei getarnt ist, die der Benutzer tatsächlich haben möchte. Allerdings ist Raccoon einfach zu bedienen und als zuverlässiger, gepflegter Abonnementdienst verfügbar, was es zu einer beliebten Wahl bei Hackern macht.
Es gibt eine Reihe potenzieller Sicherheitsbedenken, die nur dann auftreten können, wenn ein ChatGPT-Konto durch Hacker kompromittiert wird. Zum einen hat OpenAI vor einigen Monaten eine Funktion veröffentlicht, die den Chatverlauf eines Benutzers speichert. Viele Unternehmen, wie google, warnen ihre Mitarbeiter, keine sensiblen Informationen in ChatGPT einzugeben, da diese Daten zum Trainieren der KI-Sprachmodelle verwendet werden könnten. Die Tatsache, dass sie die Mitarbeiter davor warnen müssen, bedeutet jedoch, dass es tatsächlich passiert. Wenn ein Hacker Zugriff auf den ChatGPT-Verlauf eines Benutzers hat, kann er alle vertraulichen Informationen sehen, die zuvor in ChatGPT eingegeben wurden.
„Viele Unternehmen integrieren ChatGPT in ihren Betriebsablauf“, sagte Dmitry Shestakov, Head of Threat Intelligence bei Group-IB, in einer Erklärung. „Mitarbeiter geben geheime Korrespondenzen ein oder nutzen den Bot, um proprietären Code zu optimieren. Da die Standardkonfiguration von ChatGPT alle Konversationen speichert, könnte dies den Bedrohungsakteuren unbeabsichtigt einen Schatz an sensiblen Informationen liefern, wenn sie an Kontoanmeldeinformationen gelangen.“
Wenn ein Benutzer außerdem sein Passwort für mehrere verschiedene Plattformen wiederverwendet, könnte ein Hacker, der Zugriff auf sein ChatGPT-Konto hat, bald auch auf seine anderen Konten zugreifen. Und wenn das Ziel für den Premium-Plan von ChatGPT, ChatGPT Plus, bezahlt, zahlt es möglicherweise unabsichtlich auch dafür, dass andere den kostenpflichtigen Dienst ebenfalls nutzen.
ChatGPT-Benutzer sollten sich vor unbefugtem Zugriff auf ihre Konten hüten und sicherstellen, dass sie ihr Kontokennwort nicht für andere Plattformen wiederverwenden.