Fragt man chatgpt, was es mit den persönlichen Daten macht, die jemand in die Konversation einbringt, antwortet es: „Als von OpenAI entwickeltes Sprachmodell habe ich nicht die Möglichkeit, persönliche Informationen der Benutzer zu verarbeiten, zu speichern oder zu nutzen, es sei denn, dies ist der Fall.“ im Rahmen eines individuellen Gesprächs mitgeteilt.“ OpenAI – das Unternehmen, dem ChatGPT gehört – kann diese Informationen jedoch gemäß der Datenschutzrichtlinie des Unternehmens in bestimmten Fällen verwenden.

Dies gilt für bestimmte Arten von Daten und für bestimmte Fälle. Dabei muss es sich um OpenAI-Kontodaten handeln, wie z. B. den Namen des Benutzers oder Zahlungskarteninformationen, persönliche Informationen, die der Benutzer mit ChatGPT oder dem Unternehmen austauscht, Benutzerinformationen bei der Interaktion mit OpenAI-Konten in sozialen Netzwerken wie Instagram, Facebook, Medium, X , YouTube und LinkedIn, oder Daten, die der Nutzer dem Unternehmen im Rahmen seiner Umfragen oder Veranstaltungen zur Verfügung stellt. Mit diesen Informationen kann OpenAI seine Produkte und Dienste verbessern, neue Entwicklungen schaffen, Forschung betreiben, eine direkte Kommunikation mit Benutzern herstellen, seinen gesetzlichen Verpflichtungen nachkommen und Betrug, Missbrauch des Dienstes und kriminelle Aktivitäten verhindern.

Dieses heikle Thema betrifft nicht nur die neue generative KI. Das Senden einer E-Mail über Gmail an einen Freund oder das Teilen von Fotos oder Dokumenten in Cloud-Bereichen wie OneDrive sind alltägliche Handlungen, die den Anbietern dieser Dienste das Recht geben, Informationen an Dritte weiterzugeben. Unternehmen wie OpenAI, Microsoft und google können Informationen an Dienstanbieter weitergeben, um deren Geschäftsanforderungen zu erfüllen, wie in ihren Datenschutzrichtlinien angegeben.

Mit einigen Ausnahmen dürfen Unternehmen personenbezogene Daten jedoch nicht für andere Zwecke verwenden. Ricard Martínez, Professor für Verfassungsrecht an der Universität Valencia in Spanien, weist darauf hin, dass dies in der Europäischen Union durch die Datenschutz-Grundverordnung (DSGVO) strikt verboten sei: „Sie würden sich einem hohen Maß an Regulierung aussetzen.“ Risiko. Das Unternehmen könnte mit einer Geldstrafe in Höhe von 4 % des weltweiten Jahresumsatzes bestraft werden.“ Laut Martínez dürfen Daten nur für Zwecke von öffentlichem Interesse verwendet werden, die durch die Vorschriften zulässig sind, etwa für die Archivierung oder historische, statistische oder wissenschaftliche Forschung, oder wenn ein Kompatibilitätstest bestanden wird.

Siehe auch  10 verrückte Anwendungen von ChatGPT und generativen KIs

Generative künstliche Intelligenz wie ChatGPT greift auf große, zum Teil persönliche Datenmengen zurück und generiert aus diesen Informationen Originalinhalte. Es analysiert die gesammelten Informationen, antwortet auf Benutzeranfragen und verbessert seinen Service, obwohl das Tool „die Dokumente, mit denen es gefüttert wird, nicht versteht“, warnt Borja Adsuara, ein auf digitales Recht spezialisierter Anwalt.

Empfehlung: Seien Sie bei Chatbots sehr diskret

Die spanische Datenschutzbehörde (AEPD) empfiehlt Nutzern, den Chatbot abzulehnen, wenn dieser nach nicht notwendigen Registrierungsdaten fragt; fordert die Einwilligung an, ohne zu definieren, wofür die Daten verarbeitet werden, und ohne die Möglichkeit, diese jederzeit zu widerrufen, oder überträgt Daten in Länder, die keine ausreichenden Garantien bieten. Es wird außerdem empfohlen, dass Benutzer die Menge ihrer personenbezogenen Daten, die sie angeben, begrenzen oder direkt nicht bereitstellen, wenn die Möglichkeit besteht, dass diese ins Ausland übertragen werden. „Es gibt keine Garantie dafür, dass die vom Chatbot bereitgestellten Informationen korrekt sind“, fügt AEPD hinzu und warnt, dass dies zu „emotionalem Schaden, Fehlinformationen oder Irreführung“ führen könne.

Experten stimmen dem Rat des AEPD zu: Geben Sie keine persönlichen Informationen mit dem Tool für künstliche Intelligenz weiter. Sogar ChatGPT selbst warnt: „Bitte beachten Sie, dass Sie Vorsicht walten lassen sollten, wenn Sie während des Gesprächs persönliche, sensible oder vertrauliche Informationen weitergeben.“ Es wird empfohlen, keine sensiblen Informationen über Online-Plattformen preiszugeben, auch nicht in Gesprächen mit Sprachmodellen wie mir.“

Persönliche Daten löschen

Wenn ein Benutzer trotz dieser Empfehlungen seine persönlichen Daten bereits an ein System der künstlichen Intelligenz weitergegeben hat, besteht die Möglichkeit, zu versuchen, diese zu löschen. Da ist ein Formular auf der OpenAI-Website die Löschung personenbezogener Daten zu verlangen. Die schlechte Nachricht ist, dass das Unternehmen warnt: „Das Einreichen einer Anfrage garantiert nicht, dass Informationen über Sie aus den ChatGPT-Ausgaben entfernt werden.“ Das Formular muss mit „vollständigen, genauen und relevanten Antworten“ ausgefüllt werden und der Benutzer muss einer Reihe eidesstattlicher Erklärungen zustimmen. Darüber hinaus können die im Dokument bereitgestellten Informationen mit anderen Quellen abgeglichen werden, um deren Richtigkeit zu überprüfen. Microsoft bietet auch eine Privatsphäre-Panel auf personenbezogene Daten zuzugreifen und diese zu löschen.

Siehe auch  Der Alexa-Chef von Amazon verteidigt die Arbeit des Unternehmens im Bereich KI angesichts des ChatGPT-Booms

Auf dem Rechtsweg erklärt Martínez, dass der Nutzer von seinem Recht auf Löschung seiner personenbezogenen Daten Gebrauch machen könne, „wenn er der Meinung ist, dass die Verarbeitung rechtswidrig, falsch und unzureichend ist.“ Er erklärt: „Sie können sich kostenlos und an keine Bedingungen abmelden, Ihre Einwilligung widerrufen und das Unternehmen ist verpflichtet, alle Informationen zu löschen.“ Der Experte unterstreicht auch das Recht auf Datenportabilität: „Immer mehr Anwendungen ermöglichen es dem Nutzer, seine gesamte Historie herunterzuladen und in einem kompatiblen Format mitzunehmen.“ Die Verordnung empfiehlt außerdem die Anonymisierung personenbezogener Daten.“

Laut AEPD besteht die Anonymisierung darin, personenbezogene Daten in Daten umzuwandeln, die nicht zur Identifizierung einer bestimmten Person verwendet werden können. In ihren Leitlinien zum Umgang mit künstlicher Intelligenz erklärt die Agentur, dass Anonymisierung eine der Techniken zur Minimierung der Datennutzung sei und sicherstelle, dass nur die für den jeweiligen Zweck notwendigen Daten verwendet würden.

Neues Gesetz zur künstlichen Intelligenz

Nach Inkrafttreten des neuen EU-Gesetzes zu künstlicher Intelligenz müssen Unternehmen, die personenbezogene Daten verwalten, drei zentrale Aspekte berücksichtigen. Nach Angaben des Beratungsunternehmens Entelgy müssen sie in einem europäischen Register offenlegen, wie der Algorithmus funktioniert und welche Inhalte er generiert; Einrichtung menschlicher Überwachungsmechanismen (obwohl dies empfohlen, aber nicht obligatorisch ist); Und schließlich stellen Sie sicher, dass große Sprachmodelle (LLM) über Sicherheitssysteme verfügen und dass Entwickler Transparenz über das von ihnen verwendete urheberrechtlich geschützte Material haben.

Allerdings ist das neue Gesetz nicht unvereinbar mit der Datenschutz-Grundverordnung. Martínez erklärt: „KI, die personenbezogene Daten verarbeitet oder in Zukunft personenbezogene Daten generiert, wird niemals auf den Markt kommen können, wenn sie nicht die Einhaltung der DSGVO gewährleistet. Dies zeigt sich insbesondere bei Hochrisikosystemen, die ein Data-Governance-Modell sowie Betriebs- und Nutzungsaufzeichnungen implementieren müssen, die die Rückverfolgbarkeit gewährleisten.“

Siehe auch  ChatGPT, Bard, mangelt es an wirksamen Abwehrmaßnahmen gegen Betrüger. Welche? warnt

Der nächste Schritt für künstliche Intelligenz besteht laut Adsuara darin, die gesammelten persönlichen Informationen in einer Art persönlichen Pool zu nutzen: „Ein Ort, an dem jeder seinen Speicher für Dokumente mit persönlichen Daten hat, die Informationen aber nicht verlassen.“ Mit anderen Worten: Es dient nicht dazu, die universelle generative künstliche Intelligenz zu ernähren“, erklärt er.

Melden Sie sich an für Unser wöchentlicher Newsletter um mehr englischsprachige Berichterstattung von der EL PAÍS USA Edition zu erhalten

5/5 - (203 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein