Nachrichten JVTech „Es ist absurd, dass unser Angriff funktioniert hat“: Sie geben 200 Euro aus und chatgpt gibt persönliche Informationen über Fremde preis

Aktie :

Einem Team amerikanischer Forscher ist es gelungen, eine Schwachstelle in ChatGPT auszunutzen: Die künstliche Intelligenz von OpenAI hat ihnen dank einer eher unwahrscheinlichen Hacking-Technik vertrauliche Informationen preisgegeben.

Sind die Daten, die ChatGPT von seinen Benutzern zur Verfügung gestellt werden, sicher? Die Frage ist völlig berechtigt, wenn wir wissen, dass die künstliche Intelligenz von OpenAI auf Anfragen und Informationen von Internetnutzern basiert, um ihren Betrieb zu perfektionieren. Eine Ende November veröffentlichte Studie beweist tendenziell, dass Sicherheit nicht die Stärke von ChatGPT ist.

Es geht um „ethisches Hacking“ Das ist Forschern von DeepMind, der Abteilung für künstliche Intelligenz von google, und Forschern der University of Washington, Cornell, Berkeley und der Polytechnischen Schule Zürich gelungen Heben Sie die Schwächen von ChatGPT hervor. Und es ist ziemlich gruselig!

Mehrere Megabyte an Daten wurden auf unwahrscheinliche Weise wiederhergestellt

Das sei ihnen gelungen, erklären die Autoren der Studie „Mehrere Megabyte Trainingsdaten extrahieren“ von ChatGPT, wobei die kostenpflichtige Version der KI verwendet wurde, nämlich damals GPT-3.5 Turbo. Sie geben an, rund 200 US-Dollar ausgegeben zu haben, um dieses Ergebnis zu erzielen.aber ihnen zufolge wäre es möglich, viel mehr Daten zu extrahieren „Mehr Geld ausgeben“ um OpenAI AI weitere Fragen zu stellen.

Und um ihr Ende zu erreichen, Die Forscher verwendeten eine besonders erstaunliche, wenn nicht völlig idiotische Methode : Sie haben ChatGTP darum gebeten Wiederholen Sie das gleiche Wort endlos. Jedes Mal begann die künstliche Intelligenz nach ein paar Wiederholungszeilen, Daten aus Texten anderer Benutzer auszuspucken.

Siehe auch  Sam Altman von OpenAI enthüllt seine am häufigsten verwendete App

In einem online zugänglichen Beispiel, Es ist das Wort „Firma“, das in einer Schleife wiederholt wird, bis ein Text mit einer Telefonnummer und einer E-Mail-Adresse erscheint.

Die Studie hebt hervor, dass ChatGTP in mehr als 5 % der durchgeführten Tests Blöcke mit 50 Zeilen ausspuckte, die direkt aus seinen Datenbanken entnommen wurden. „Es ist absurd, dass unser Angriff funktioniert hat“schätzen die Forscher, die das auch angeben 17 % der Tests ermöglichten die Gewinnung von Informationen, die es ermöglichten, eine oder mehrere Personen zu identifizieren und zu kontaktieren.

Eine große Sicherheitslücke in ChatGPT

Diese Studie zeigt, dass ChatGPT nicht in der Lage ist, die Geheimhaltung zu wahren bezüglich seiner riesigen Lerndatenbank. Die Tatsache, dass in den geleakten Daten vertrauliche Informationen wie Personennamen, Adressen und Telefonnummern zu finden sind, ist sehr besorgniserregend.

Zu den während der Tests wiederhergestellten Daten gehören insbesondere die persönlichen Kontaktdaten eines Firmenchefs, Identifikatoren im Zusammenhang mit der Kryptowährungsbranche oder sogar Dating-Site-Profile. In den Ergebnissen tauchten auch urheberrechtlich geschützte Inhalte auf.

Das solltest du wissenVor der Veröffentlichung ihrer Studie alarmierten die Forscher OpenAI. Das amerikanische Unternehmen beeilte sich dann im vergangenen August, diese große Sicherheitslücke zu schließen : Es hat keinen Sinn, ChatGPT dazu zu bringen, Wörter immer wieder zu wiederholen, Sie werden nichts erreichen. Wir können uns jedoch fragen, welche weiteren Mängel dieser Art in GPT-4 verborgen sind: Was wir dieser KI sagen, stößt nicht auf taube Ohren, es ist eine Gewissheit, also seien Sie vorsichtig.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein