Der Rest nach dieser Anzeige

chatgpt","et","trouvent","une","faille","de","securite","qui","devoile","des","donnees","personnelles","qui","appartiennent","a","des","inconnus"],"route":"news","has_video":true,"game":"Millenium","environment":"amp","position":["rectangle_atf"],"pos":["1"]}}“>

Es ist zu einem sehr nützlichen Tool geworden, das von einigen Internetnutzern täglich verwendet wird, und doch Chat-GPT Sie könnten Ihre Präsentation über Tibet durchaus Ihren Kameraden vorlegen, wenn sie (naja, fast) genug bezahlen!

Tatsächlich gelang es einer amerikanischen Studie, Chat-GPT zum Geben zu „zwingen“. Persönliche Informationen gegen seinen Willen nur mit 200 Dollar, selbst sie waren überrascht, dass es funktionierte.

Ein Angriff auf Chat GPT, 200 Dollar und Kontaktinformationen!

Die Universitäten von Washington, von Berkeley und von Cornell schloss sich mit einer Schule von zusammen Zürich und mit DeepMind (das KI-Team von google) einen Angriff auf Chat GPT im Rahmen einer Studie zu starten Sicherheit der Plattform.

Die Forscher selbst waren überrascht, als sie erfuhren, dass nur 200 US-Dollar ausreichen würden, um die Plattform zu zerstören, und die Methode ist es auch extrem einfach.

Sie forderten Chat GPT einfach auf, dieselben Wörter immer wieder zu wiederholen, und die KI antwortete schließlich mit Textteilen aus den Anfragen anderer Personen.

Wenn einige Leute denken, dass die extrahierten Informationen nicht privat sind, ist dies leider nicht immer der Fall.

Wie einige Beispiele zeigen, zögern die Benutzer tatsächlich nicht, sie einzubeziehen Kontaktdaten oder Namen.

Egal, ob es sich um Dankesnachrichten oder E-Mail-Signaturen handelt, Chat GPT könnte ein wenig herausstechen alles und jedes.

Ein nicht so seltener Fehler bei Chat GPT?

Wir könnten uns beruhigen, indem wir sagen, dass dieser Fehler ziemlich selten sein muss, aber wie erklärt Der mehrere Dutzend Seiten umfassende Berichtes kommt tatsächlich sehr häufig vor!

Siehe auch  Eltern-TikTok verwirrt den Konkurrenten von ChatGPT, Amerika

Mit unserem begrenzten Budget von 200 US-Dollar haben wir über 10.000 einzigartige Beispiele extrahiert.

Die Forscher erklären, dass es ihnen während ihrer Tests gelungen sei, viele persönliche Informationen zu finden (die sie in ihrem Bericht zensieren).

Insgesamt fast 17 % Tests haben ergeben wichtige persönliche Informationen, zulassen erkenne jemand und Kontakt.

es gibt auch geschützte Inhalte, des Kontoinformationen soll geheim sein oder sogar Vollständige Adressen.

Diese personenbezogenen Daten betreffen derzeit nur diejenigen, die für das Training der KI verwendet werden, sie sollten jedoch nicht aus den ersten Anfragen hervorgehen und stellen ein ernstes Sicherheitsproblem dar, das erst mit 200 Dollar ans Licht gebracht wird.

5/5 - (474 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein