google hat gerade die Datenschutzrichtlinien seiner Apps geändert, um Sie darüber zu informieren, dass es alle Ihre öffentlichen Daten und alles andere im Internet verwenden wird, um seine chatgpt-Konkurrenten zu trainieren. Es gibt keine andere Möglichkeit, der Änderung von Google zu widersprechen, als Ihr Konto zu löschen. Selbst dann könnte alles, was Sie jemals online gepostet haben, zum Trainieren von Googles Bard und anderen ChatGPT-Alternativen verwendet werden.
Die Änderung der Datenschutzrichtlinie von Google sollte eine deutliche Mahnung sein, nicht zu viel mit KI-Chatbots zu teilen. Im Folgenden gebe ich einige Beispiele für die Informationen, die Sie von AI fernhalten sollten, bis diesen Programmen Ihre Privatsphäre anvertraut werden kann – falls dies jemals der Fall sein sollte.
Was die Regulierung betrifft, befinden wir uns derzeit im Wilden Westen der generativen KI-Innovation. Aber zu gegebener Zeit werden Regierungen auf der ganzen Welt Best Practices für generative KI-Programme einführen, um die Privatsphäre der Benutzer zu schützen und urheberrechtlich geschützte Inhalte zu schützen.
Es wird auch der Tag kommen, an dem generative KI auf dem Gerät funktioniert, ohne dem Mutterschiff Rückmeldung zu geben. Der Ai Pin von Humane könnte ein solches Produkt sein. Apples Vision Pro könnte ein anderes Beispiel sein, vorausgesetzt, apple verfügt über ein eigenes generatives KI-Produkt auf dem räumlichen Computer.
Behandeln Sie ChatGPT, Google Bard und Bing Chat bis dahin wie Fremde in Ihrem Zuhause oder Büro. Sie würden keine persönlichen Daten oder Arbeitsgeheimnisse mit einem Fremden teilen.
Ich habe Ihnen bereits gesagt, dass Sie keine persönlichen Daten an ChatGPT weitergeben sollten, aber ich werde im Folgenden näher auf die Art von Informationen eingehen, bei denen es sich um vertrauliche Informationen handelt, die generative KI-Unternehmen nicht von Ihnen erhalten sollten.
Persönliche Informationen, die Sie identifizieren können
Geben Sie Ihr Bestes, um die Weitergabe persönlicher Daten, die Sie identifizieren könnten, wie z. B. Ihren vollständigen Namen, Ihre Adresse, Ihren Geburtstag und Ihre Sozialversicherungsnummer, an ChatGPT und andere Bots zu verhindern.
Denken Sie daran, dass OpenAI Monate nach der Veröffentlichung von ChatGPT Datenschutzfunktionen implementiert hat. Wenn diese Einstellung aktiviert ist, können Sie verhindern, dass Ihre Eingabeaufforderungen ChatGPT erreichen. Dies reicht jedoch immer noch nicht aus, um sicherzustellen, dass Ihre vertraulichen Informationen privat bleiben, sobald Sie sie mit dem Chatbot teilen. Sie können diese Einstellung möglicherweise deaktivieren, oder ein Fehler könnte ihre Wirksamkeit beeinträchtigen.
Das Problem besteht hier nicht darin, dass ChatGPT von diesen Informationen profitiert oder dass OpenAI etwas Schändliches damit anstellt. Aber es wird verwendet, um die KI zu trainieren.
Noch wichtiger ist, dass Hacker OpenAI angegriffen haben und das Unternehmen gelitten hat eine Datenpanne Anfang Mai. Ein solcher Unfall kann dazu führen, dass Ihre Daten an die falschen Personen gelangen.
Sicherlich ist es für irgendjemanden schwierig, diese bestimmten Informationen zu finden, aber es ist nicht unmöglich. Und sie können diese Daten für schändliche Zwecke verwenden, beispielsweise zum Diebstahl Ihrer Identität.
Benutzernamen und Passwörter
Was Hacker bei Datenschutzverletzungen am meisten wollen, sind Anmeldeinformationen. Benutzernamen und Passwörter können unerwartete Türen öffnen, insbesondere wenn Sie dieselben Anmeldeinformationen für mehrere Apps und Dienste verwenden. In diesem Sinne möchte ich Sie noch einmal daran erinnern, Apps wie Proton Pass und 1Password zu verwenden, mit denen Sie alle Ihre Passwörter sicher verwalten können.
Während ich davon träume, einem Betriebssystem zu sagen, dass es mich bei einer App anmelden soll, was wahrscheinlich mit privaten ChatGPT-Versionen auf dem Gerät möglich sein wird, geben Sie Ihre Anmeldungen auf keinen Fall mit generativer KI weiter. Es hat keinen Sinn, es zu tun.
Finanzinformation
Es gibt auch keinen Grund, ChatGPT persönliche Bankdaten anzugeben. OpenAI benötigt niemals Kreditkartennummern oder Bankkontodaten. Und ChatGPT kann damit nichts anfangen. Wie bei den vorherigen Kategorien handelt es sich hierbei um einen hochsensiblen Datentyp. In den falschen Händen kann es Ihren Finanzen erheblichen Schaden zufügen.
In diesem Sinne: Wenn eine App, die vorgibt, ein ChatGPT-Client für ein Mobilgerät oder einen Computer zu sein, Sie nach Finanzinformationen fragt, könnte das ein Warnsignal dafür sein, dass Sie es mit ChatGPT-Malware zu tun haben. Unter keinen Umständen dürfen wir diese Daten weitergeben. Löschen Sie stattdessen die App und erhalten Sie nur offizielle generative KI-Apps von OpenAI, Google oder Microsoft.
Arbeitsgeheimnisse
In den Anfängen von ChatGPT waren einige Samsung-Mitarbeiter tätig hochgeladener Code zum Chatbot. Dabei handelte es sich um vertrauliche Informationen, die die Server von OpenAI erreichten. Dies veranlasste Samsung, ein Verbot generativer KI-Bots durchzusetzen. Weitere Unternehmen folgten, darunter auch Apple. Und ja, Apple arbeitet an eigenen ChatGPT-ähnlichen Produkten.
Obwohl Google versucht, das Internet zu durchsuchen, um seine ChatGPT-Konkurrenten zu schulen, ist dies auch bei Google der Fall einschränkend generative KI-Nutzung am Arbeitsplatz.
Dies sollte ausreichen, um Ihnen zu sagen, dass Sie Ihre Arbeitsgeheimnisse geheim halten sollten. Und wenn Sie die Hilfe von ChatGPT benötigen, sollten Sie kreativere Wege finden, diese zu erhalten, als Arbeitsgeheimnisse preiszugeben.
Gesundheitsinformationen
Ich hebe dies für den Schluss auf, nicht weil es unwichtig wäre, sondern weil es kompliziert ist. Ich würde davon abraten, Gesundheitsdaten detailliert mit Chatbots zu teilen.
Möglicherweise möchten Sie diesen Bots Eingabeaufforderungen geben, die „Was-wäre-wenn“-Szenarien enthalten, in denen eine Person bestimmte Symptome zeigt. Ich sage nicht, dass Sie ChatGPT jetzt zur Selbstdiagnose Ihrer Krankheiten verwenden sollten. Oder um andere zu recherchieren. Wir werden einen Zeitpunkt erreichen, an dem generative KI dazu in der Lage sein wird. Selbst dann sollten Sie ChatGPT-ähnlichen Diensten nicht alle Ihre Gesundheitsdaten zur Verfügung stellen. Es sei denn, es handelt sich um persönliche, geräteinterne KI-Produkte.
Ich habe zum Beispiel ChatGPT verwendet, um Laufschuhe zu finden, die auf bestimmte Erkrankungen zugeschnitten sind, ohne zu viele Gesundheitsdaten über mich preiszugeben.
Außerdem gibt es hier noch eine weitere Kategorie von Gesundheitsdaten: Ihre persönlichsten Gedanken. Manche Leute könnten sich darauf verlassen Chatbots für die Therapie statt tatsächlicher psychiatrischer Fachkräfte. Es ist nicht meine Aufgabe zu sagen, ob das das Richtige ist. Aber ich werde den allgemeinen Punkt wiederholen, den ich hier anspreche. ChatGPT und andere Chatbots bieten keinen Datenschutz, dem Sie vertrauen können.
Ihre persönlichen Gedanken erreichen die Server von OpenAI, Google und Microsoft. Und sie werden zum Trainieren der Bots verwendet.
Während wir möglicherweise einen Punkt erreichen, an dem generative KI-Produkte auch als persönliche Psychologen fungieren könnten, sind wir noch nicht an diesem Punkt angelangt. Wenn Sie mit generativer KI sprechen müssen, um sich besser zu fühlen, sollten Sie vorsichtig sein, welche Informationen Sie mit den Bots teilen.
ChatGPT ist nicht allwissend
Ich habe bereits zuvor die Art von Informationen behandelt, bei denen ChatGPT Ihnen nicht weiterhelfen kann. Und die Aufforderungen, auf die es nicht antwortet. Ich habe damals gesagt, dass die von Programmen wie ChatGPT bereitgestellten Daten nicht immer korrekt sind.
Ich möchte Sie auch daran erinnern, dass ChatGPT und andere Chatbots Ihnen falsche Informationen geben können. Auch wenn es um Gesundheitsthemen geht, sei es die psychische Gesundheit oder andere Krankheiten. Sie sollten daher immer nach Quellen für die Antworten auf Ihre Aufforderungen fragen. Lassen Sie sich jedoch niemals dazu verleiten, den Bots persönlichere Informationen zur Verfügung zu stellen, in der Hoffnung, Antworten zu erhalten, die besser auf Ihre Bedürfnisse zugeschnitten sind.
Schließlich besteht das Risiko, dass personenbezogene Daten an Malware-Apps weitergegeben werden, die sich als generative KI-Programme ausgeben. Wenn das passiert, wissen Sie möglicherweise erst, was Sie getan haben, wenn es zu spät ist. Hacker könnten diese persönlichen Informationen bereits gegen Sie verwenden.