Ein Laptop mit installiertem Microsoft Copilot+ steht am 18. Juni 2024 im Best Buy Store in Miami, Florida. Best Buy hat mit dem Verkauf der neuen KI-zentrierten Copilot+-PC-Reihe von Microsoft an Kunden begonnen.
Nachrichten von Getty Images | Getty Images
Viele Verbraucher sind von generativer KI begeistert und nutzen neue Tools für alle möglichen persönlichen oder geschäftlichen Angelegenheiten.
Viele ignorieren jedoch die möglichen Auswirkungen auf die Privatsphäre, die erheblich sein können.
Von OpenAIs chatgpt über Googles Gemini bis hin zur Microsoft Copilot-Software und der neuen apple Intelligence sind KI-Tools für Verbraucher leicht zugänglich und weit verbreitet. Die Tools haben jedoch unterschiedliche Datenschutzrichtlinien in Bezug auf die Verwendung und Speicherung von Benutzerdaten. In vielen Fällen sind sich Verbraucher nicht bewusst, wie ihre Daten verwendet werden oder verwendet werden könnten.
Hier wird es überaus wichtig, ein informierter Verbraucher zu sein. Je nach Tool gibt es unterschiedliche Möglichkeiten, was man kontrollieren kann, sagt Jodi Daniels, Geschäftsführerin und Datenschutzberaterin bei Red Clover Advisors, das Unternehmen in Datenschutzfragen berät. „Es gibt keine universelle Opt-out-Möglichkeit für alle Tools“, sagt Daniels.
Angesichts der zunehmenden Verbreitung von KI-Tools – und ihrer Integration in viele Aktivitäten der Verbraucher auf ihren PCs und Smartphones – werden diese Fragen noch relevanter. So hat Microsoft vor einigen Monaten seine ersten Surface-PCs mit einer speziellen Copilot-Taste auf der Tastatur für den schnellen Zugriff auf den Chatbot herausgebracht und damit ein Versprechen von vor einigen Monaten eingelöst. Apple wiederum hat im vergangenen Monat seine Vision für KI skizziert – die sich um mehrere kleinere Modelle dreht, die auf Apples Geräten und Chips laufen. Führungskräfte des Unternehmens sprachen öffentlich darüber, wie wichtig dem Unternehmen der Datenschutz ist, was bei KI-Modellen eine Herausforderung sein kann.
Hier sind mehrere Möglichkeiten, wie Verbraucher ihre Privatsphäre im neuen Zeitalter der generativen KI schützen können.
Stellen Sie der KI die Datenschutzfragen, die sie beantworten können muss
Bevor Verbraucher sich für ein Tool entscheiden, sollten sie die zugehörigen Datenschutzrichtlinien sorgfältig lesen. Wie werden Ihre Daten verwendet und wie könnten sie verwendet werden? Gibt es eine Option, die Datenfreigabe zu deaktivieren? Gibt es eine Möglichkeit, die Verwendung von Daten und deren Aufbewahrungsdauer einzuschränken? Können Daten gelöscht werden? Müssen Benutzer sich durch die Luft sprengen, um Opt-out-Einstellungen zu finden?
Wenn Sie diese Fragen nicht ohne weiteres beantworten können oder in den Datenschutzrichtlinien des Anbieters keine Antworten darauf finden, ist das laut Datenschutzexperten ein Warnsignal.
„Ein Tool, das auf die Privatsphäre achtet, wird es Ihnen sagen“, sagte Daniels.
Und wenn das nicht der Fall ist, „muss man Eigentümer sein“, fügte Daniels hinzu. „Man kann nicht einfach davon ausgehen, dass das Unternehmen das Richtige tun wird. Jedes Unternehmen hat andere Werte und jedes Unternehmen verdient sein Geld anders.“
Sie nannte das Beispiel von Grammarly, einem Bearbeitungstool, das von vielen Verbrauchern und Unternehmen verwendet wird, ein Unternehmen, das klar erklärt an mehreren Stellen auf der Website Wie Daten verwendet werden.
Halten Sie vertrauliche Daten aus großen Sprachmodellen fern
Manche Menschen sind sehr vertrauensselig, wenn es darum geht, sensible Daten in generative KI-Modelle einzugeben. Andrew Frost Moroz, Gründer des Aloha Browsers, eines auf Datenschutz ausgerichteten Browsers, empfiehlt jedoch, keinerlei sensible Daten einzugeben, da man nicht wirklich wisse, wie diese verwendet oder möglicherweise missbraucht werden könnten.
Dies gilt für alle Arten von Informationen, die Benutzer eingeben, egal ob sie privat oder beruflich sind. Viele Unternehmen haben erhebliche Bedenken geäußert, wenn Mitarbeiter KI-Modelle zur Unterstützung ihrer Arbeit verwenden, da die Mitarbeiter möglicherweise nicht berücksichtigen, wie diese Informationen vom Modell zu Schulungszwecken verwendet werden. Wenn Sie ein vertrauliches Dokument eingeben, hat das KI-Modell nun Zugriff darauf, was alle möglichen Bedenken aufwerfen könnte. Viele Unternehmen genehmigen nur die Verwendung von benutzerdefinierten Versionen generischer KI-Tools, die eine Firewall zwischen proprietären Informationen und großen Sprachmodellen aufrechterhalten.
Einzelpersonen sollten außerdem auf Nummer sicher gehen und KI-Modelle nicht für Dinge verwenden, die nicht öffentlich sind oder die sie nicht in irgendeiner Form mit anderen teilen möchten, sagte Frost Moroz. Es ist wichtig, sich darüber im Klaren zu sein, wie man KI einsetzt. Wenn man sie verwendet, um einen Artikel aus Wikipedia zusammenzufassen, ist das vielleicht kein Problem. Aber wenn man sie beispielsweise verwendet, um ein persönliches Rechtsdokument zusammenzufassen, ist das nicht ratsam. Oder nehmen wir an, Sie haben ein Bild eines Dokuments und möchten einen bestimmten Absatz kopieren. Sie können die KI bitten, den Text zu lesen, damit Sie ihn kopieren können. Auf diese Weise kennt das KI-Modell den Inhalt des Dokuments, also müssen Verbraucher das im Hinterkopf behalten, sagte er.
Nutzen Sie die Opt-Out-Möglichkeiten von OpenAI, google
Jedes KI-Tool der Generation hat seine eigenen Datenschutzrichtlinien und kann Opt-out-Optionen haben. Mit Gemini können Benutzer beispielsweise Folgendes erstellen: eine Aufbewahrungsfrist und das Löschen bestimmter Daten sowie andere Aktivitätskontrollen.
Benutzer können der Verwendung ihrer Daten für das Modelltraining durch ChatGPT widersprechen. Dazu müssen sie zum Profilsymbol unten links auf der Seite navigieren und unter der Überschrift „Einstellungen“ die Option „Datensteuerung“ auswählen. Anschließend müssen sie die Funktion „Modell für alle verbessern“ deaktivieren. Während diese Funktion deaktiviert ist, werden neue Konversationen nicht zum Trainieren der ChatGPT-Modelle verwendet, heißt es in einer FAQ auf OpenAIs Webseite.
„Es gibt für Verbraucher keine wirklichen Vorteile, wenn sie künstliche Intelligenz anhand ihrer Daten trainieren lassen, und es gibt Risiken, die noch untersucht werden“, sagt Jacob Hoffman-Andrews, ein leitender Technologe bei der Electronic Frontier Foundation, einer internationalen gemeinnützigen Organisation für digitale Rechte.
Wenn persönliche Daten unrechtmäßig im Internet veröffentlicht werden, können Verbraucher sie möglicherweise entfernen lassen, und dann verschwinden sie aus den Suchmaschinen. Aber das Abtrainieren von KI-Modellen sei eine ganz andere Sache, sagte er. Es mag einige Möglichkeiten geben, die Verwendung bestimmter Informationen einzuschränken, sobald sie in einem KI-Modell sind, aber das ist nicht narrensicher, und wie man dies effektiv erreichen kann, ist ein Bereich aktiver Forschung, sagte er.
Opt-in, wie etwa bei Microsoft Copilot, nur aus triftigen Gründen
Unternehmen integrieren KI in alltägliche Tools, die Menschen in ihrem Privat- und Berufsleben nutzen. Copilot für Microsoft 365 funktioniert beispielsweise in Word, Excel und PowerPoint und unterstützt Benutzer bei Aufgaben wie Analyse, Ideenfindung, Organisation und mehr.
Für diese Tools sagt Microsoft, es gibt keine Verbraucherdaten weiter an Dritte weiter und verwendet keine Kundendaten ohne Zustimmung, um Copilot oder seine KI-Funktionen zu trainieren.
Benutzer können sich jedoch bei Bedarf anmelden, indem sie sich beim Power Platform Admin Center anmelden, Einstellungen und Mandanteneinstellungen auswählen und die Datenfreigabe für Dynamics 365 Copilot und Power Platform Copilot AI Features aktivieren. Sie aktivieren die Datenfreigabe und speichern.
Zu den Vorteilen der Teilnahme gehört, dass vorhandene Funktionen effektiver gestaltet werden können. Der Nachteil besteht jedoch darin, dass Verbraucher die Kontrolle über die Verwendung ihrer Daten verlieren, was laut Datenschutzexperten ein wichtiger Gesichtspunkt ist.
Die gute Nachricht ist, dass Verbraucher, die sich bei Microsoft angemeldet haben, ihre Zustimmung jederzeit widerrufen können. Benutzer können dies tun, indem sie im Power Platform Admin Center unter „Einstellungen“ zur Mandanteneinstellungsseite gehen und die Datenfreigabe für Dynamics 365 Copilot und Power Platform Copilot AI Features deaktivieren.
Legen Sie eine kurze Aufbewahrungsfrist für generative KI für die Suche fest
Verbraucher denken vielleicht nicht lange nach, bevor sie mithilfe von KI nach Informationen suchen, und verwenden sie wie eine Suchmaschine, um Informationen und Ideen zu generieren. Allerdings kann selbst die Suche nach bestimmten Arten von Informationen mithilfe von KI die Privatsphäre einer Person verletzen, daher gibt es auch bei der Verwendung von Tools für diesen Zweck Best Practices. Wenn möglich, legen Sie eine kurze Aufbewahrungsfrist für das KI-Tool fest, sagte Hoffman-Andrews. Und löschen Sie Chats, wenn möglich, nachdem Sie die gesuchten Informationen erhalten haben. Unternehmen verfügen zwar immer noch über Serverprotokolle, aber dies kann dazu beitragen, das Risiko zu verringern, dass Dritte Zugriff auf Ihr Konto erhalten, sagte er. Es kann auch das Risiko verringern, dass vertrauliche Informationen Teil des Modelltrainings werden. „Es hängt wirklich von den Datenschutzeinstellungen der jeweiligen Site ab.“