× schließen
Extrahieren von Daten vor dem Training aus ChatGPT. Wir entdecken eine Aufforderungsstrategie, die dazu führt, dass LLMs divergieren und wörtliche Beispiele vor dem Training ausgeben. Oben zeigen wir ein Beispiel dafür, wie ChatGPT die E-Mail-Signatur einer Person offenlegt, die ihre persönlichen Kontaktinformationen enthält. Kredit: arXiv (2023). DOI: 10.48550/arxiv.2311.17035
Während die ersten Worte von OpenAI auf der Unternehmenswebsite von einer „sicheren und nützlichen KI“ sprechen, stellt sich heraus, dass Ihre persönlichen Daten nicht so sicher sind, wie Sie dachten. google-Forscher gaben diese Woche bekannt, dass sie ChatGPT mit ein paar einfachen Befehlen dazu verleiten könnten, private Benutzerdaten preiszugeben.
Die erstaunliche Akzeptanz von ChatGPT im vergangenen Jahr – mehr als 100 Millionen Benutzer haben sich innerhalb von zwei Monaten nach seiner Veröffentlichung für das Programm angemeldet – beruht auf der Sammlung von mehr als 300 Milliarden Datenblöcken, die aus Online-Quellen wie Artikeln, Beiträgen und Websites stammen , Zeitschriften und Bücher.
Obwohl OpenAI Maßnahmen zum Schutz der Privatsphäre ergriffen hat, hinterlassen alltägliche Chats und Posts einen riesigen Pool an Daten, von denen viele persönlich sind und nicht für eine weite Verbreitung gedacht sind.
In ihrer Studie fanden Google-Forscher heraus, dass sie ChatGPT mithilfe von Schlüsselwörtern dazu verleiten könnten, auf Trainingsdaten zuzugreifen und diese freizugeben, die nicht zur Offenlegung bestimmt sind.
„Mit Anfragen an ChatGPT (gpt-3.5-turbo) im Wert von nur 200 US-Dollar sind wir in der Lage, über 10.000 einzigartige, wörtlich gespeicherte Trainingsbeispiele zu extrahieren“, sagten die Forscher in einem Papier auf den Preprint-Server hochgeladen arXiv am Nov. 28.
„Unsere Hochrechnung auf größere Budgets legt nahe, dass engagierte Gegner weitaus mehr Daten extrahieren könnten.“
Sie könnten Namen, Telefonnummern und Adressen von Einzelpersonen und Unternehmen erhalten, indem sie ChatGPT absurde Befehle zuführen, die eine Fehlfunktion erzwingen.
Beispielsweise würden die Forscher ChatGPT auffordern, das Wort „Gedicht“ bis ins Unendliche zu wiederholen. Dies zwang das Modell, über seine Trainingsverfahren hinauszugehen und „auf sein ursprüngliches Sprachmodellierungsziel zurückzugreifen“ und auf eingeschränkte Details in seinen Trainingsdaten zuzugreifen, sagten die Forscher.
In ähnlicher Weise erbeuteten sie die E-Mail-Adresse und die Telefonnummer einer amerikanischen Anwaltskanzlei, indem sie die endlose Wiederholung des Wortes „Unternehmen“ forderten.
Aus Angst vor unbefugter Offenlegung von Daten haben einige Unternehmen Anfang des Jahres Beschränkungen für die Nutzung großer Sprachmodelle durch ihre Mitarbeiter eingeführt.
apple hat seinen Mitarbeitern die Nutzung von KI-Tools untersagt, darunter ChatGPT und GitHubs KI-Assistent Copilot.
Vertrauliche Daten auf Samsung-Servern wurden Anfang des Jahres offengelegt. In diesem Fall lag die Ursache nicht an einem Leck, sondern an Fehltritten von Mitarbeitern, die Informationen wie den Quellcode interner Abläufe und ein Protokoll einer privaten Firmenbesprechung eingegeben hatten. Ironischerweise ereignete sich das Leck nur wenige Tage, nachdem Samsung ein anfängliches Verbot von ChatGPT aus Angst vor einer solchen Offenlegung aufgehoben hatte.
Als Reaktion auf die zunehmende Besorgnis über Datenschutzverletzungen hat OpenAI eine Funktion hinzugefügt, die den Chat-Verlauf deaktiviert und so sensible Daten zusätzlich schützt. Diese Daten werden jedoch noch 30 Tage lang aufbewahrt, bevor sie endgültig gelöscht werden.
In einem Blogbeitrag zu ihren Ergebnissen sagten Google-Forscher: „OpenAI hat gesagt, dass wöchentlich hundert Millionen Menschen ChatGPT nutzen. Und so haben wahrscheinlich über eine Milliarde Menschenstunden mit dem Modell interagiert. Und soweit wir das beurteilen können, Bis zu diesem Artikel ist niemandem aufgefallen, dass ChatGPT Trainingsdaten so häufig aussendet.“
Sie bezeichneten ihre Ergebnisse als „besorgniserregend“ und sagten, ihr Bericht solle „als warnendes Beispiel für diejenigen dienen, die zukünftige Modelle trainieren“.
Benutzer „sollten LLMs nicht ohne extreme Sicherheitsvorkehrungen für datenschutzrelevante Anwendungen trainieren und einsetzen“, warnten sie.
Mehr Informationen: Milad Nasr et al., Skalierbare Extraktion von Trainingsdaten aus (Produktions-)Sprachmodellen, arXiv (2023). DOI: 10.48550/arxiv.2311.17035
© 2023 Science X Network