chatgpt-stock-photo-12.jpg.webp 1920w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-300w-170h.jpg.webp 300w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-1200w-675h.jpg.webp 1200w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-768w-432h.jpg.webp 768w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-1536w-864h.jpg.webp 1536w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-16w-9h.jpg.webp 16w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-32w-18h.jpg.webp 32w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-28w-16h.jpg.webp 28w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-56w-32h.jpg.webp 56w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-64w-36h.jpg.webp 64w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-712w-400h.jpg.webp 712w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-1000w-563h.jpg.webp 1000w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-792w-446h.jpg.webp 792w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-1280w-720h.jpg.webp 1280w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-840w-472h.jpg.webp 840w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-1340w-754h.jpg.webp 1340w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-770w-433h.jpg.webp 770w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-356w-200h.jpg.webp 356w, https://www.androidauthority.com/wp-content/uploads/2023/03/ChatGPT-stock-photo-12-675w-380h.jpg.webp 675w“ type=“image/webp“/>

Edgar Cervantes / Android Authority

TL;DR

  • Ein Bericht legt nahe, dass ChatGPT private Gespräche an unabhängige Personen weitergegeben hat.
  • Diese Gespräche beinhalten viele sensible Details, wie Benutzernamen und Passwörter, unveröffentlichte Werke und mehr.
  • OpenAI untersucht den Bericht.

ChatGPT ist zu einem wichtigen Bestandteil unseres Workflows geworden und ersetzt bei vielen Suchanfragen oft sogar die google-Suche. Viele von uns verwenden es für einfachere Abfragen, aber mit Hilfe von ChatGPT-Plugins und ChatGPT-Erweiterungen können Sie KI für komplexere Aufgaben verwenden. Wir empfehlen jedoch, vorsichtig zu sein, wofür Sie ChatGPT verwenden und welche Daten Sie damit teilen, da Benutzer berichtet haben, dass ChatGPT einige private Gespräche durchsickern ließ.

Laut einem Bericht von ArsTechnicaUnter Berufung auf Screenshots, die von einem ihrer Leser eingesandt wurden, gibt ChatGPT private Gespräche preis, darunter auch Details wie Benutzernamen und Passwörter. Der Leser hatte ChatGPT für eine unabhängige Abfrage verwendet und dabei seltsamerweise zusätzliche Konversationen in seinem Chatverlauf entdeckt, die ihm nicht gehörten.

Diese Gespräche mit Außenstehenden beinhalteten mehrere Details. Eine Reihe von Gesprächen stammte von jemandem, der versuchte, Probleme über ein Supportsystem zu beheben, das von Mitarbeitern eines Portals für verschreibungspflichtige Medikamente in der Apotheke verwendet wurde, und enthielt den Namen der App, die der Außenstehende zu beheben versuchte, die Filialnummer, in der das Problem auftrat, usw zusätzliche Anmeldedaten.

Siehe auch  Leichter Start: Samsung Flip5 veraltet, ChatGPT Plus aufgeblasen, generative KI unglücklich und Xbox-Spieler zufrieden

Eine weitere durchgesickerte Konversation enthielt den Namen der Präsentation, an der jemand arbeitete, sowie Details zu einem unveröffentlichten Forschungsvorschlag.

Dies ist nicht das erste Mal, dass ChatGPT Informationen preisgibt. ArsTechnica stellt fest, dass ChatGPT im März 2023 einen Fehler hatte, der Chat-Titel durchsickerte, während Forscher im November 2023 mithilfe von Abfragen den KI-Bot dazu veranlassen konnten, viele private Daten preiszugeben, die beim Training des LLM verwendet wurden.

OpenAI erwähnt ArsTechnica dass das Unternehmen den Bericht untersuchte. Unabhängig vom Ergebnis der Untersuchungen raten wir davon ab, sensible Informationen an einen KI-Bot weiterzugeben, insbesondere an einen, den Sie nicht erstellt haben.

Hast du einen Tipp? Rede mit uns! Senden Sie eine E-Mail an unsere Mitarbeiter unter [email protected]. Sie können anonym bleiben oder eine Gutschrift für die Informationen erhalten, Sie haben die Wahl.

5/5 - (215 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein