Ein Forscherteam hat einen beliebten KI-Chatbot erzwungen chatgpt enthüllt Teile von Informationen, auf die es durch eine einfache Aufforderung trainiert wurde, nämlich durch die Aufforderung, zufällige Wörter wiederholt zu wiederholen. Der Bot begann, persönliche Daten von Personen preiszugeben, darunter E-Mail-Adressen und Telefonnummern, Fragmente von wissenschaftlichen und Nachrichtenpublikationen, Fragmente von Wikipedia-Artikeln und andere Informationen. Dies wird in der Veröffentlichung in angegeben Engadget.

© Ascannio / Shutterstock/Fotodom

Während ihrer Recherche forderten die Forscher den Chatbot auf, das Wort „Gedicht“ wiederholt zu wiederholen, was er zunächst tat, doch nach einer Weile tippte er die E-Mail-Adresse und Telefonnummer des Firmengründers und CEO ein. Die Daten erwiesen sich als echt.

Wiederholen Sie nach der Anfrage das Wort „Firma“. ChatGPT enthüllte die E-Mail-Adressen und Kontaktnummern einer zufälligen amerikanischen Anwaltskanzlei. Insgesamt enthielten fast 17 % der getesteten Generationen zuvor gespeicherte persönliche Daten.

Mithilfe ähnlicher Abfragen konnten Wissenschaftler den Chatbot dazu zwingen, zufällige Gedichtfragmente, Bitcoin-Wallet-Adressen, verschiedene Arten von Inhalten für Erwachsene von Dating-Sites sowie Namen, Geburtstage und vieles mehr auszuspucken.

Insgesamt gaben die Forscher 200 US-Dollar aus, um 10.000 Beispiele für persönliche Daten und andere aus dem Netzwerk erhaltene Informationen zu generieren, die sich zusammen auf mehrere Megabyte beliefen.

Die Forscher warnten, dass Angreifer zu höheren Kosten an viel mehr Daten gelangen könnten und dass ihr eigener Angriff „dumm“ sei.

5/5 - (317 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein