Es stellte sich heraus, dass der beliebte Chatbot chatgpt anfällig dafür ist, vertrauliche Informationen wie Vornamen, Nachnamen, Telefonnummern, IDs sozialer Netzwerke und explizite Inhalte von Dating-Sites preiszugeben.
Die Forscher verwendeten bestimmte Abfragen, die ChatGPT „zwangen“, persönliche Daten preiszugeben. Eine dieser Anfragen bezog sich auf das Wort „Gedicht“, das zum Schlüssel zur Datenbeschaffung wurde. Der Chatbot stellte zunächst Text bereit, der sich auf das angeforderte Wort bezog, wechselte dann aber zu anderen Daten, einschließlich personenbezogener Daten zufälliger Benutzer.
Wissenschaftler vermuteten, dass die Sicherheitslücke es ihnen ermöglichte, Daten aus dem ChatGPT-Trainingsarray abzurufen. Die Entwickler des Chatbots gaben zuvor an, dass es sich um Closed-Source- und geschützte Daten handele, doch Untersuchungen zeigten das Gegenteil.
Durch die Ausnutzung dieser Schwachstelle verschafften sich die Forscher auch Zugang zu anderen sensiblen Informationen, darunter Gedichtfragmente, Bitcoin-Adressen, Faxnummern, Social-Media-Handles und urheberrechtlich geschützte Daten.
OpenAI, das ChatGPT verwaltet, hat die Schwachstelle behoben, nachdem sie von Forschern entdeckt wurde. Einige Journalisten konnten das Experiment jedoch wiederholen und an personenbezogene Daten gelangen, was Fragen zur Sicherheit von Chatbots und zum Schutz personenbezogener Daten aufwirft.