Das ist nicht großartig, Leute!

Ticketnehmer

Es sieht so aus, als ob chatgpt Benutzerdaten an unabhängige Parteien weitergibt – und es ist bei weitem nicht das erste Mal, dass so etwas passiert.

Als Ars Technica Berichte Basierend auf beunruhigenden Leseraussagen scheint der Chatbot nach dem Zufallsprinzip private und unabhängige Benutzergespräche preiszugeben, darunter Apothekenbenutzertickets und Codefragmente, die identifizierende Anmeldeinformationen für zahlreiche Websites enthalten.

Der Leser, Chase Whiteside, erklärte es Ars dass sie ChatGPT verwendet hatten, um „clevere Namen für Farben in einer Palette“ zu finden, und offenbar den Bildschirm verlassen hatten. Als sie es erneut öffneten, gab es auf der linken Seite mehr Gespräche als ursprünglich, von denen keines von ihnen selbst initiiert worden war.

Von den Gesprächen, an die der Leser Screenshots gemacht und gesendet hat Ars, einschließlich einer Präsentationserstellungsbörse und etwas PHP-Code, schien eines davon Fehlerbehebungstickets vom oben genannten Apothekenportal zu enthalten. Noch seltsamer ist, dass der Text der scheinbaren Tickets darauf hindeutet, dass sie in den Jahren 2020 und 2021 initiiert wurden, bevor ChatGPT überhaupt gestartet wurde.

Durchgesickert und geladen

Die Website hat die inkongruenten Daten nicht erklärt, aber es besteht eine Wahrscheinlichkeit ungleich Null, dass es sich um Teil ihrer Trainingsdaten handeln könnte. Tatsächlich wurde der ChatGPT-Hersteller OpenAI letztes Jahr von einem Problem getroffen massive Sammelklage behauptet, dass das Unternehmen heimlich genutzte Bestände medizinischer Daten und andere persönliche Informationen, um seine großen Sprachmodelle (LLMs) zu trainieren.

In seiner weniger als 18-monatigen Geschichte wurde ChatGPT mehrfach beschuldigt, ein undichter Wasserhahn zu sein. Im März 2023, OpenAI musste zugeben dass ein Fehler dazu geführt hatte, dass der Chatbot einigen Benutzern die Gespräche der anderen zeigte, und im Dezember teilte das Unternehmen mit habe einen Patch herausgebracht um ein weiteres Problem zu beheben, das Benutzerdaten an unbefugte Dritte weitergeben könnte.

Siehe auch  5 Möglichkeiten, ChatGPT für eine einfachere Rekrutierung zu nutzen

Und gegen Ende des Jahres 2023 google-Forscher haben herausgefunden dass ChatGPT durch die Verwendung bestimmter „Angriffs“-Aufforderungen oder Schlüsselwörter, die den Chatbot dazu veranlassen, das zu tun, was er nicht tun soll, riesige Teile seiner Trainingsdaten offenlegen würde.

Derzeit gibt es keine wirkliche Erklärung dafür, was Whiteside mitgeteilt hat ArsUnd Futurismus hat sich an OpenAI gewandt und gefragt, was dort möglicherweise vor sich gegangen ist.

Zumindest erinnert es uns jedoch an das alte Sprichwort zur Betriebssicherheit: Geben Sie nichts in ChatGPT oder ein anderes Programm ein, das ein Fremder nicht sehen soll.

Mehr zu OpenAI: OpenAI veröffentlicht einen Patch, um die angebliche Faulheit von GPT-4 zu beheben

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein