Die Frage lautet nicht mehr „Was kann chatgpt tun?“ Es lautet: „Was soll ich damit teilen?“
Internetnutzer sind sich im Allgemeinen der Risiken möglicher Datenschutzverletzungen und der Art und Weise bewusst, wie unsere persönlichen Daten online verwendet werden. Aber die verführerischen Fähigkeiten von ChatGPT scheinen einen blinden Fleck gegenüber Gefahren geschaffen zu haben, die wir normalerweise mit Vorsichtsmaßnahmen vermeiden. OpenAI hat erst kürzlich eine neue Datenschutzfunktion angekündigtDadurch können ChatGPT-Benutzer den Chatverlauf deaktivieren und verhindern, dass Konversationen zur Verbesserung und Verfeinerung des Modells verwendet werden.
ChatGPT führt wichtige Datenschutzoptionen ein
„Es ist ein Schritt in die richtige Richtung“, sagte Nader Henein, Vizepräsident für Datenschutzforschung bei Gartner, der über zwei Jahrzehnte Erfahrung in der Cybersicherheit und dem Datenschutz von Unternehmen verfügt. „Aber das grundlegende Problem bei Datenschutz und KI besteht darin, dass man im Hinblick auf die rückwirkende Steuerung nach der Erstellung des Modells nicht viel tun kann.“
Henein sagt, Sie sollten sich ChatGPT als einen umgänglichen Fremden vorstellen, der im Bus hinter Ihnen sitzt und Sie mit einer Handykamera aufzeichnet. „Sie haben eine sehr freundliche Stimme, sie scheinen nette Leute zu sein. Würden Sie dann mit ihnen das gleiche Gespräch führen? Denn das ist es.“ Er fuhr fort: „Es ist gut gemeint, aber wenn es dir weh tut – es ist wie bei einem Soziopathen, werden sie nicht zweimal darüber nachdenken.“
Sogar Sam Altman, CEO von OpenAI, hat die Risiken erkannt, die sich aus der Verwendung von ChatGPT ergeben. „Es ist ein Fehler, sich im Moment bei irgendetwas Wichtigem darauf zu verlassen. Wir haben noch viel zu tun, um Robustheit und Wahrhaftigkeit zu gewährleisten“, sagte er getwittert(öffnet sich in einem neuen Tab) im Dezember 2022.
Der Tweet wurde möglicherweise gelöscht (öffnet sich in einem neuen Tab)
Behandeln Sie ChatGPT-Eingabeaufforderungen im Wesentlichen wie alles andere, was Sie online veröffentlichen. „Die beste Annahme ist, dass jeder auf der Welt alles lesen kann, was Sie ins Internet stellen – E-Mails, soziale Medien, Blogs, LLMs – posten Sie niemals etwas, von dem Sie nicht möchten, dass jemand anderes es liest“, sagte Gary Smith, Fletcher Jones-Professor of Economics am Pomona College und Autor von Misstrauen: Big Data, Datenfolter und der Angriff auf die Wissenschaft. ChatGPT könne als Alternative zur google-Suche oder Wikipedia verwendet werden, solange es faktengeprüft sei, sagte er. Aber für viel anderes sollte man sich nicht darauf verlassen.
Das Fazit ist, dass es immer noch Risiken gibt, die durch die Anziehungskraft von ChatGPT noch prekärer werden. Unabhängig davon, ob Sie ChatGPT in Ihrem Privatleben oder zur Steigerung der Arbeitsproduktivität verwenden, betrachten Sie dies als Ihre freundliche Erinnerung, zweimal darüber nachzudenken, was Sie mit ChatGPT teilen.
Verstehen Sie die Risiken der Verwendung von ChatGPT
Schauen wir uns zunächst an, was OpenAI den Benutzern darüber sagt, wie sie ihre Daten verwenden. Nicht jeder hat die gleichen Datenschutzprioritäten, aber es ist wichtig, das Kleingedruckte zu kennen, wenn Sie ChatGPT das nächste Mal öffnen.
1. Hacker könnten die äußerst beliebte App infiltrieren
Erstens besteht die Möglichkeit, dass sich jemand außerhalb von OpenAI einhackt und Ihre Daten stiehlt. Bei der Nutzung eines Drittanbieterdienstes besteht immer das Risiko, dass Daten durch Fehler und Hacker offengelegt werden, und ChatGPT bildet da keine Ausnahme. Im März 2023 wurde ein ChatGPT-Fehler entdeckt, der dazu führte, dass Titel, die erste Nachricht neuer Konversationen und Zahlungsinformationen von ChatGPT Plus-Benutzern offengelegt wurden.
„All diese Informationen, die Sie hineinschieben, sind äußerst problematisch, da die Wahrscheinlichkeit groß ist, dass sie anfällig für Angriffe durch maschinelles Lernen sind. Das ist das Wichtigste“, sagte Henein. „Zweitens steht es wahrscheinlich im Klartext irgendwo im Protokoll. Ob es sich jemand ansehen wird, weiß ich nicht, Sie auch nicht. Das ist das Problem.“
2. Ihre Gespräche werden irgendwo auf einem Server gespeichert
Obwohl dies unwahrscheinlich ist, haben bestimmte OpenAI-Mitarbeiter Zugriff auf Benutzerinhalte. Auf dem ChatGPT FAQ-Seite(öffnet sich in einem neuen Tab)Laut OpenAI werden Benutzerinhalte auf seinen Systemen und anderen „Systemen vertrauenswürdiger Dienstanbieter in den USA“ gespeichert. Während OpenAI also identifizierbare persönliche Informationen entfernt, liegen sie vor ihrer „De-Identifizierung“ in Rohform auf seinen Servern vor. Einige autorisierte OpenAI-Mitarbeiter haben aus vier expliziten Gründen Zugriff auf Benutzerinhalte: Einer davon besteht darin, ihre Modelle zu „verfeinern“, es sei denn, Benutzer entscheiden sich dagegen.
Hüten Sie sich vor zwielichtigen ChatGPT-Apps
3. Ihre Gespräche werden zum Trainieren des Modells verwendet (sofern Sie sich nicht abmelden)
Wir werden uns später mit der Abmeldung befassen, aber sofern Sie dies nicht tun, werden Ihre Konversationen zum Trainieren von ChatGPT verwendet. Gemäß seiner Datennutzungsrichtlinie, die über mehrere verschiedene Artikel auf seiner Website verteilt ist, OpenAI sagt(öffnet sich in einem neuen Tab): „Wir können die von Ihnen bereitgestellten Daten verwenden, um unsere Modelle zu verbessern.“ An eine andere Seite(öffnet sich in einem neuen Tab)Laut OpenAI kann es „personenbezogene Daten aggregieren oder anonymisieren und die aggregierten Informationen verwenden, um die Wirksamkeit unserer Dienste zu analysieren“. Das bedeutet, dass die Öffentlichkeit theoretisch durch alles, was das Modell „lernt“, auf so etwas wie ein Geschäftsgeheimnis aufmerksam werden kann.
Bisher konnten Nutzer die Weitergabe ihrer Daten an das Model nur über ein Google-Formular ablehnen, das auf der FAQ-Seite verlinkt war. Jetzt hat OpenAI eine explizitere Möglichkeit zum Deaktivieren der Datenfreigabe in Form einer Umschalteinstellung in Ihrem ChatGPT-Konto eingeführt. Aber auch mit diesem neuen „Inkognito-Modus“ werden Gespräche 30 Tage lang auf dem Server von OpenAI gespeichert. Das Unternehmen hat jedoch relativ wenig Einfluss darauf, wie es Ihre Daten schützt.
4. Ihre Daten Gewohnheit an Dritte verkauft werden, so das Unternehmen
OpenAI gibt an, Benutzerdaten nicht zu Marketing- oder Werbezwecken an Dritte weiterzugeben, Sie müssen sich also um eine Sache weniger kümmern. Es gibt jedoch Benutzerdaten an Anbieter und Dienstanbieter weiter, um die Website zu warten und zu betreiben.
Was könnte passieren, wenn Sie ChatGPT bei der Arbeit verwenden?
ChatGPT und generative KI-Tools werden als der ultimative Produktivitäts-Hack angepriesen. ChatGPT kann Artikel, E-Mails, Social-Media-Beiträge und Zusammenfassungen langer Textabschnitte verfassen. „Es gibt kein Beispiel, das es nicht gegeben hätte“, sagte Henein.
Doch als Samsung-Mitarbeiter ChatGPT nutzten, um ihren Code zu überprüfen, gaben sie versehentlich Geschäftsgeheimnisse preis. Der Elektronikkonzern hat inzwischen die Nutzung von ChatGPT verboten und droht Mitarbeitern mit Disziplinarmaßnahmen, wenn sie sich nicht an die neuen Beschränkungen halten. Finanzinstitute mögen JP Morgan(öffnet sich in einem neuen Tab), Bank of America(öffnet sich in einem neuen Tab)Und Citigroup(öffnet sich in einem neuen Tab) haben außerdem die Nutzung von ChatGPT aufgrund strenger finanzieller Vorschriften für die Nachrichtenübermittlung Dritter verboten oder eingeschränkt. Auch apple hat Mitarbeitern die Nutzung des Chatbots untersagt.
Die Versuchung, alltägliche Arbeit auf Sekunden zu reduzieren, scheint die Tatsache zu überschatten, dass Benutzer diese Informationen im Wesentlichen online veröffentlichen. „Man stellt sich das genauso vor wie einen Taschenrechner, man stellt es sich wie Excel vor“, sagte er. „Sie glauben nicht, dass diese Informationen in die Cloud gelangen und dort für immer entweder in einem Protokoll irgendwo oder im Modell selbst verbleiben.“
Wenn Sie also ChatGPT bei der Arbeit verwenden möchten, um Konzepte aufzuschlüsseln, die Sie nicht verstehen, Texte zu schreiben oder öffentlich verfügbare Daten zu analysieren, und es keine Regel dagegen gibt, gehen Sie vorsichtig vor. Aber seien Sie sehr vorsichtig, bevor Sie es beispielsweise bitten, den Code des streng geheimen Raketenleitsystems, an dem Sie arbeiten, auszuwerten, oder es eine Zusammenfassung des Treffens Ihres Chefs mit einem Firmenspion eines Konkurrenzunternehmens schreiben lassen. Das könnte Sie Ihren Job kosten oder Schlimmeres.
Was könnte passieren, wenn Sie ChatGPT als Therapeut nutzen?
A Umfrage(öffnet sich in einem neuen Tab) Eine vom Gesundheitstechnologieunternehmen Tebra durchgeführte Studie ergab, dass jeder vierte Amerikaner eher mit einem KI-Chatbot spricht, als eine Therapie zu besuchen. Es sind bereits Fälle aufgetaucht, in denen Leute ChatGPT als verwendet haben Form der Therapie(öffnet sich in einem neuen Tab)oder suchend Hilfe bei Drogenmissbrauch(öffnet sich in einem neuen Tab). Diese Beispiele wurden als spannende Anwendungsfälle dafür geteilt, wie ChatGPT ein hilfreicher, nicht wertender und anonymer Gesprächspartner sein kann. Aber Ihre tiefsten und dunkelsten Eingeständnisse werden irgendwo auf einem Server gespeichert.
Der Tweet wurde möglicherweise gelöscht (öffnet sich in einem neuen Tab)
Die Leute neigen dazu, ihre ChatGPT-Sitzungen wie einen „ummauerten Garten“ zu denken, sagte Henein. „Am Ende, wenn ich mich abmelde, ist alles drin [session] spült die Toilette hinunter, und das ist das Ende des Gesprächs. Aber das ist nicht der Fall.
Wenn Sie eine Person im Internet sind, sind Ihre persönlichen Daten bereits überall. Aber nicht das ChatGPT-Konversationsmedium, bei dem Sie sich möglicherweise gezwungen fühlen, intime und persönliche Gedanken preiszugeben. „LLMs sind eine Illusion – eine mächtige Illusion, aber immer noch eine Illusion, die an das Computerprogramm Eliza erinnert, das Joseph Weizenbaum in den 1960er Jahren geschaffen hat“, sagte Smith.
Smith bezieht sich auf den „Eliza-Effekt“ oder die menschliche Tendenz, unbelebte Dinge zu vermenschlichen. „Obwohl die Benutzer wussten, dass sie mit einem Computerprogramm interagierten, waren viele davon überzeugt, dass das Programm über menschenähnliche Intelligenz und Emotionen verfügte, und teilten gerne ihre tiefsten Gefühle und streng gehüteten Geheimnisse.“
Angesichts der Art und Weise, wie OpenAI Ihre Gespräche speichert, sollten Sie sich also nicht der Illusion hingeben, dass es sich um einen Zauberer für die psychische Gesundheit handelt, und Ihre innersten Gedanken herausplatzen lassen, es sei denn, Sie sind bereit, Ihre innersten Gedanken der Welt mitzuteilen.
So schützen Sie Ihre Daten auf ChatGPT
Es gibt eine Möglichkeit, bei der Verwendung von ChatGPT inkognito zu bleiben. Das bedeutet, dass Ihre Gespräche weiterhin 30 Tage lang gespeichert werden, aber nicht zum Trainieren des Modells verwendet werden. Indem Sie zu Ihrem Kontonamen navigieren, können Sie die Einstellungen öffnen und dann auf „Datenkontrollen“ klicken. Von hier aus können Sie „Chat-Verlauf und Training“ deaktivieren. Sie können vergangene Konversationen auch löschen, indem Sie auf „Allgemein“ und dann auf „Alle Chats löschen“ klicken.
Navigieren Sie zur Einstellungsseite, um Ihren Chat-Verlauf zu deaktivieren. Bildnachweis: OpenAI