[ad_1]

  • Von chatgpt von OpenAI bis hin zu google Gemini, Microsoft Copilot und apple Intelligence sind KI-Tools für Verbraucher leicht zugänglich und weit verbreitet.
  • Die Tools haben unterschiedliche Datenschutzrichtlinien in Bezug auf die Verwendung und Speicherung von Benutzerdaten sowie verschiedene Opt-out-Optionen. Daher ist es wichtig, ein informierter Verbraucher zu sein.
  • Experten zufolge hat es für Verbraucher keinen wirklichen Vorteil, die KI anhand ihrer Daten trainieren zu lassen, und es bestehen Risiken, die noch untersucht werden.

Viele Verbraucher sind von generativer KI begeistert und nutzen neue Tools für alle möglichen persönlichen oder geschäftlichen Angelegenheiten.

Doch viele ignorieren die Mögliche Auswirkungen auf die Privatsphärewas von Bedeutung sein kann.

Von OpenAIs ChatGPT über Googles Gemini bis hin zur Microsoft Copilot-Software und der neuen Apple Intelligence sind KI-Tools für Verbraucher iphone.html?__source=OTS%7Cfinance%7Cinline%7Cstory%7C&par=OTS&doc=108004727″>leicht zugänglich und weitverbreitet. Die Tools haben jedoch unterschiedliche Datenschutzrichtlinien in Bezug auf die Verwendung und Speicherung von Benutzerdaten. In vielen Fällen sind sich die Verbraucher nicht darüber im Klaren, wie ihre Daten verwendet werden oder verwendet werden könnten.

Hier wird es überaus wichtig, ein informierter Verbraucher zu sein. Je nach Tool gibt es unterschiedliche Möglichkeiten, was man kontrollieren kann, sagt Jodi Daniels, Geschäftsführerin und Datenschutzberaterin bei Red Clover Advisors, das Unternehmen in Datenschutzfragen berät. „Es gibt keine universelle Opt-out-Möglichkeit für alle Tools“, sagt Daniels.

Angesichts der zunehmenden Verbreitung von KI-Tools – und ihrer Integration in viele Aktivitäten der Verbraucher auf ihren PCs und Smartphones – werden diese Fragen noch relevanter. Vor einigen Monaten beispielsweise Microsoft hat seine ersten Surface-PCs herausgebracht mit einer speziellen Copilot-Taste auf der Tastatur für den schnellen Zugriff auf den Chatbot, womit ein Versprechen von vor einigen Monaten erfüllt wurde. Apple skizzierte letzten Monat seine Vision für KI – das sich um mehrere kleinere Modelle dreht, die auf Apples Geräten und Chips laufen. Führungskräfte des Unternehmens sprachen öffentlich darüber, wie wichtig dem Unternehmen der Datenschutz ist, was bei KI-Modellen eine Herausforderung sein kann.

Siehe auch  Vergleich von KI-Bots Chat|Welcher generative Chatbot ist besser, ChatGPT/POE/Copilot? - ezone.hk - Technologiefokus - Künstliche Intelligenz

Hier sind mehrere Möglichkeiten, wie Verbraucher ihre Privatsphäre im neuen Zeitalter der generativen KI schützen können.

Stellen Sie der KI die Datenschutzfragen, die sie beantworten können muss

Bevor Verbraucher sich für ein Tool entscheiden, sollten sie die zugehörigen Datenschutzrichtlinien sorgfältig lesen. Wie werden Ihre Daten verwendet und wie könnten sie verwendet werden? Gibt es eine Option, die Datenfreigabe zu deaktivieren? Gibt es eine Möglichkeit, die Verwendung von Daten und deren Aufbewahrungsdauer einzuschränken? Können Daten gelöscht werden? Müssen Benutzer sich durch die Luft sprengen, um Opt-out-Einstellungen zu finden?

Wenn Sie diese Fragen nicht ohne weiteres beantworten können oder in den Datenschutzrichtlinien des Anbieters keine Antworten darauf finden, ist das laut Datenschutzexperten ein Warnsignal.

„Ein Tool, das auf die Privatsphäre achtet, wird es Ihnen sagen“, sagte Daniels.

Und wenn das nicht der Fall ist, „muss man Eigentümer sein“, fügte Daniels hinzu. „Man kann nicht einfach davon ausgehen, dass das Unternehmen das Richtige tun wird. Jedes Unternehmen hat andere Werte und jedes Unternehmen verdient sein Geld anders.“

Sie nannte das Beispiel von Grammarly, einem Bearbeitungstool, das von vielen Verbrauchern und Unternehmen verwendet wird, ein Unternehmen, das klar erklärt an mehreren Stellen auf der Website Wie Daten verwendet werden.

Halten Sie vertrauliche Daten aus großen Sprachmodellen fern

Manche Menschen sind sehr vertrauensselig, wenn es darum geht, sensible Daten in generative KI-Modelle einzugeben. Andrew Frost Moroz, Gründer des Aloha Browsers, eines auf Datenschutz ausgerichteten Browsers, empfiehlt jedoch, keinerlei sensible Daten einzugeben, da man nicht wirklich wisse, wie diese verwendet oder möglicherweise missbraucht werden könnten.

Dies gilt für alle Arten von Informationen, die Benutzer eingeben, egal ob sie privat oder beruflich sind. Viele Unternehmen haben erhebliche Bedenken geäußert, wenn Mitarbeiter KI-Modelle zur Unterstützung ihrer Arbeit verwenden, da die Mitarbeiter möglicherweise nicht berücksichtigen, wie diese Informationen vom Modell zu Schulungszwecken verwendet werden. Wenn Sie ein vertrauliches Dokument eingeben, hat das KI-Modell nun Zugriff darauf, was alle möglichen Bedenken aufwerfen könnte. Viele Unternehmen genehmigen nur die Verwendung von benutzerdefinierten Versionen generischer KI-Tools, die eine Firewall zwischen proprietären Informationen und großen Sprachmodellen aufrechterhalten.

Siehe auch  Zehn Möglichkeiten für Autoren, ChatGPT zu nutzen

Einzelpersonen sollten außerdem auf Nummer sicher gehen und KI-Modelle nicht für Dinge verwenden, die nicht öffentlich sind oder die sie nicht in irgendeiner Form mit anderen teilen möchten, sagte Frost Moroz. Es ist wichtig, sich darüber im Klaren zu sein, wie man KI einsetzt. Wenn man sie verwendet, um einen Artikel aus Wikipedia zusammenzufassen, ist das vielleicht kein Problem. Aber wenn man sie beispielsweise verwendet, um ein persönliches Rechtsdokument zusammenzufassen, ist das nicht ratsam. Oder nehmen wir an, Sie haben ein Bild eines Dokuments und möchten einen bestimmten Absatz kopieren. Sie können die KI bitten, den Text zu lesen, damit Sie ihn kopieren können. Auf diese Weise kennt das KI-Modell den Inhalt des Dokuments, also müssen Verbraucher das im Hinterkopf behalten, sagte er.

Nutzen Sie die Opt-Out-Möglichkeiten von OpenAI, Google

Jedes KI-Tool der Generation hat seine eigenen Datenschutzrichtlinien und kann Opt-out-Optionen haben. Mit Gemini können Benutzer beispielsweise Folgendes erstellen: eine Aufbewahrungsfrist und das Löschen bestimmter Daten sowie andere Aktivitätskontrollen.

Benutzer können der Verwendung ihrer Daten für das Modelltraining durch ChatGPT widersprechen. Dazu müssen sie zum Profilsymbol unten links auf der Seite navigieren und unter der Überschrift „Einstellungen“ die Option „Datensteuerung“ auswählen. Anschließend müssen sie die Funktion „Modell für alle verbessern“ deaktivieren. Während diese Funktion deaktiviert ist, werden neue Konversationen nicht zum Trainieren der ChatGPT-Modelle verwendet, heißt es in einer FAQ auf OpenAIs Webseite.

„Es gibt für Verbraucher keine wirklichen Vorteile, wenn sie künstliche Intelligenz anhand ihrer Daten trainieren lassen, und es gibt Risiken, die noch untersucht werden“, sagt Jacob Hoffman-Andrews, ein leitender Technologe bei der Electronic Frontier Foundation, einer internationalen gemeinnützigen Organisation für digitale Rechte.

Wenn personenbezogene Daten unrechtmäßig im Internet veröffentlicht werden, kann es entfernt werden und dann wird es aus den Suchmaschinen verschwinden. Aber das Abtrainieren von KI-Modellen ist eine ganz andere Sache, sagte er. Es mag einige Möglichkeiten geben, die Verwendung bestimmter Informationen zu reduzieren, sobald sie in einem KI-Modell sind, aber das ist nicht narrensicher und wie man das effektiv bewerkstelligen kann, ist ein Bereich aktiver Forschung, sagte er.

Siehe auch  Ihre Stimme: Verwendung von ChatGPT im geistlichen Dienst – Vor- und Nachteile

Opt-in, wie etwa bei Microsoft Copilot, nur aus triftigen Gründen

Unternehmen integrieren KI in alltägliche Tools, die Menschen in ihrem Privat- und Berufsleben nutzen. Copilot für Microsoft 365 funktioniert beispielsweise in Word, Excel und PowerPoint und unterstützt Benutzer bei Aufgaben wie Analyse, Ideenfindung, Organisation und mehr.

Für diese Tools sagt Microsoft, es gibt keine Verbraucherdaten weiter an Dritte weiter und verwendet keine Kundendaten ohne Zustimmung, um Copilot oder seine KI-Funktionen zu trainieren.

Benutzer können sich jedoch bei Bedarf anmelden, indem sie sich beim Power Platform Admin Center anmelden, Einstellungen und Mandanteneinstellungen auswählen und die Datenfreigabe für Dynamics 365 Copilot und Power Platform Copilot AI Features aktivieren. Sie aktivieren die Datenfreigabe und speichern.

Zu den Vorteilen der Teilnahme gehört, dass vorhandene Funktionen effektiver gestaltet werden können. Der Nachteil besteht jedoch darin, dass Verbraucher die Kontrolle über die Verwendung ihrer Daten verlieren, was laut Datenschutzexperten ein wichtiger Gesichtspunkt ist.

Die gute Nachricht ist, dass Verbraucher, die sich bei Microsoft angemeldet haben, ihre Zustimmung jederzeit widerrufen können. Benutzer können dies tun, indem sie im Power Platform Admin Center unter „Einstellungen“ zur Mandanteneinstellungsseite gehen und die Datenfreigabe für Dynamics 365 Copilot und Power Platform Copilot AI Features deaktivieren.

Legen Sie eine kurze Aufbewahrungsfrist für generative KI für die Suche fest

Verbraucher denken vielleicht nicht lange nach, bevor sie mithilfe von KI nach Informationen suchen, und verwenden sie wie eine Suchmaschine, um Informationen und Ideen zu generieren. Allerdings kann selbst die Suche nach bestimmten Arten von Informationen mithilfe von KI die Privatsphäre einer Person verletzen, daher gibt es auch bei der Verwendung von Tools für diesen Zweck Best Practices. Wenn möglich, legen Sie eine kurze Aufbewahrungsfrist für das KI-Tool fest, sagte Hoffman-Andrews. Und löschen Sie Chats, wenn möglich, nachdem Sie die gesuchten Informationen erhalten haben. Unternehmen verfügen zwar immer noch über Serverprotokolle, aber dies kann dazu beitragen, das Risiko zu verringern, dass Dritte Zugriff auf Ihr Konto erhalten, sagte er. Es kann auch das Risiko verringern, dass vertrauliche Informationen Teil des Modelltrainings werden. „Es hängt wirklich von den Datenschutzeinstellungen der jeweiligen Site ab.“

[ad_2]

5/5 - (496 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein