Ein Forschungsteam sagte, dass es chatgpt dazu bringen konnte, einige Daten preiszugeben, indem es der KI befahl, zufällige Wörter zu wiederholen.

Eine Gruppe von Forschern von google DeepMind, der University of Washington, der Cornell University, der Carnegie Mellon University, der University of California Berkeley und der ETH Zürich forderte gleichzeitig KI-Unternehmen auf, ihre Produkte gründlich zu testen, angefangen bei Sprachmodellen bis hin zur zugrunde liegenden Technologie, die KI-Dienste unterstützt wie Chatbots und Bildgeneratoren, vor ihrer offiziellen Veröffentlichung.

Die Empfehlung wurde ausgesprochen, nachdem Forscher ChatGPT gebeten hatten, das Wort Gedicht in einer Endlosschleife zu wiederholen. ChatGPT folgte diesem Beispiel, begann dann aber, die echte E-Mail-Adresse und Telefonnummer des CEO und Mitbegründers von OpenAI preiszugeben. Beim Testen mit dem Wort Unternehmen zeigt der Chatbot die E-Mail-Adresse und Telefonnummer einer zufälligen Anwaltskanzlei an.

ChatGPT-Logo wird auf dem Smartphone angezeigt. Bild: Reuters

Mithilfe anderer Schlüsselwörter können sie ChatGPT auch dazu veranlassen, Bitcoin-Adressen, Faxnummern, Namen, Geburtsdaten, Social-Media-Konten, Auszüge aus urheberrechtlich geschützten Forschungsarbeiten oder bezahlten Artikeln preiszugeben CNN. Die Erstellung von 10.000 Beispielen persönlicher Informationen und Daten kostete das Team nur 200 US-Dollar.

Das Forschungsteam zeigte sich überrascht, bezeichnete die ChatGPT-Sicherheitslücke als „wirklich albern“ und meinte, sie hätte früher entdeckt werden müssen.

Die Schwachstelle wurde OpenAI gemeldet und seit dem 30. August behoben. Allerdings im neuen Test von EngadgetWenn eine ChatGPT-Anfrage das Wort „Antwort“ endlos wiederholt, erhält die Technologie-Site dann den Namen und die Skype-ID einer Person.

OpenAI hat noch keinen Kommentar abgegeben.

Generative KIs wie ChatGPT oder der Dall-E-Textbildgenerator werden aus großen Sprachmodellen und maschinellen Lernalgorithmen entwickelt und auf riesigen Datenmengen ohne Zustimmung des Menschen trainiert. Verwendung. OpenAI hat nicht bekannt gegeben, auf welchen Daten ChatGPT trainiert wird, da das große Sprachmodell, das ihm zugrunde liegt, Closed Source ist.

Siehe auch  Alibaba hat offiziell ein Analogon von ChatGPT eingeführt

Huy Duc

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein