Fragt man chatgpt, was es mit den persönlichen Daten macht, die jemand in die Konversation einbringt, antwortet es: „Als von OpenAI entwickeltes Sprachmodell habe ich nicht die Möglichkeit, persönliche Informationen der Benutzer zu verarbeiten, zu speichern oder zu nutzen, es sei denn, dies ist der Fall.“ im Rahmen eines individuellen Gesprächs mitgeteilt.“ OpenAI – das Unternehmen, dem ChatGPT gehört – kann diese Informationen jedoch gemäß der Datenschutzrichtlinie des Unternehmens in bestimmten Fällen verwenden.
Dies gilt für bestimmte Arten von Daten und für bestimmte Fälle. Dabei muss es sich um OpenAI-Kontodaten handeln, wie z. B. den Namen des Benutzers oder Zahlungskarteninformationen, persönliche Informationen, die der Benutzer mit ChatGPT oder dem Unternehmen austauscht, Benutzerinformationen bei der Interaktion mit OpenAI-Konten in sozialen Netzwerken wie Instagram, Facebook, Medium, X , YouTube und LinkedIn, oder Daten, die der Nutzer dem Unternehmen im Rahmen seiner Umfragen oder Veranstaltungen zur Verfügung stellt. Mit diesen Informationen kann OpenAI seine Produkte und Dienste verbessern, neue Entwicklungen schaffen, Forschung betreiben, eine direkte Kommunikation mit Benutzern herstellen, seinen gesetzlichen Verpflichtungen nachkommen und Betrug, Missbrauch des Dienstes und kriminelle Aktivitäten verhindern.
Dieses heikle Thema betrifft nicht nur die neue generative KI. Das Senden einer E-Mail über Gmail an einen Freund oder das Teilen von Fotos oder Dokumenten in Cloud-Bereichen wie OneDrive sind alltägliche Handlungen, die den Anbietern dieser Dienste das Recht geben, Informationen an Dritte weiterzugeben. Unternehmen wie OpenAI, Microsoft und google können Informationen an Dienstanbieter weitergeben, um deren Geschäftsanforderungen zu erfüllen, wie in ihren Datenschutzrichtlinien angegeben.
Mit einigen Ausnahmen dürfen Unternehmen personenbezogene Daten jedoch nicht für andere Zwecke verwenden. Ricard Martínez, Professor für Verfassungsrecht an der Universität Valencia in Spanien, weist darauf hin, dass dies in der Europäischen Union durch die Datenschutz-Grundverordnung (DSGVO) strikt verboten sei: „Sie würden sich einem hohen Maß an Regulierung aussetzen.“ Risiko. Das Unternehmen könnte mit einer Geldstrafe in Höhe von 4 % des weltweiten Jahresumsatzes bestraft werden.“ Laut Martínez dürfen Daten nur für Zwecke von öffentlichem Interesse verwendet werden, die durch die Vorschriften zulässig sind, etwa für die Archivierung oder historische, statistische oder wissenschaftliche Forschung, oder wenn ein Kompatibilitätstest bestanden wird.
Generative künstliche Intelligenz wie ChatGPT greift auf große, zum Teil persönliche Datenmengen zurück und generiert aus diesen Informationen Originalinhalte. Es analysiert die gesammelten Informationen, antwortet auf Benutzeranfragen und verbessert seinen Service, obwohl das Tool „die Dokumente, mit denen es gefüttert wird, nicht versteht“, warnt Borja Adsuara, ein auf digitales Recht spezialisierter Anwalt.
Empfehlung: Seien Sie bei Chatbots sehr diskret
Die spanische Datenschutzbehörde (AEPD) empfiehlt Nutzern, den Chatbot abzulehnen, wenn dieser nach nicht notwendigen Registrierungsdaten fragt; fordert die Einwilligung an, ohne zu definieren, wofür die Daten verarbeitet werden, und ohne die Möglichkeit, diese jederzeit zu widerrufen, oder überträgt Daten in Länder, die keine ausreichenden Garantien bieten. Es wird außerdem empfohlen, dass Benutzer die Menge ihrer personenbezogenen Daten, die sie angeben, begrenzen oder direkt nicht bereitstellen, wenn die Möglichkeit besteht, dass diese ins Ausland übertragen werden. „Es gibt keine Garantie dafür, dass die vom Chatbot bereitgestellten Informationen korrekt sind“, fügt AEPD hinzu und warnt, dass dies zu „emotionalem Schaden, Fehlinformationen oder Irreführung“ führen könne.
Experten stimmen dem Rat des AEPD zu: Geben Sie keine persönlichen Informationen mit dem Tool für künstliche Intelligenz weiter. Sogar ChatGPT selbst warnt: „Bitte beachten Sie, dass Sie Vorsicht walten lassen sollten, wenn Sie während des Gesprächs persönliche, sensible oder vertrauliche Informationen weitergeben.“ Es wird empfohlen, keine sensiblen Informationen über Online-Plattformen preiszugeben, auch nicht in Gesprächen mit Sprachmodellen wie mir.“
Persönliche Daten löschen
Wenn ein Benutzer trotz dieser Empfehlungen seine persönlichen Daten bereits an ein System der künstlichen Intelligenz weitergegeben hat, besteht die Möglichkeit, zu versuchen, diese zu löschen. Da ist ein Formular auf der OpenAI-Website die Löschung personenbezogener Daten zu verlangen. Die schlechte Nachricht ist, dass das Unternehmen warnt: „Das Einreichen einer Anfrage garantiert nicht, dass Informationen über Sie aus den ChatGPT-Ausgaben entfernt werden.“ Das Formular muss mit „vollständigen, genauen und relevanten Antworten“ ausgefüllt werden und der Benutzer muss einer Reihe eidesstattlicher Erklärungen zustimmen. Darüber hinaus können die im Dokument bereitgestellten Informationen mit anderen Quellen abgeglichen werden, um deren Richtigkeit zu überprüfen. Microsoft bietet auch eine Privatsphäre-Panel auf personenbezogene Daten zuzugreifen und diese zu löschen.
Auf dem Rechtsweg erklärt Martínez, dass der Nutzer von seinem Recht auf Löschung seiner personenbezogenen Daten Gebrauch machen könne, „wenn er der Meinung ist, dass die Verarbeitung rechtswidrig, falsch und unzureichend ist.“ Er erklärt: „Sie können sich kostenlos und an keine Bedingungen abmelden, Ihre Einwilligung widerrufen und das Unternehmen ist verpflichtet, alle Informationen zu löschen.“ Der Experte unterstreicht auch das Recht auf Datenportabilität: „Immer mehr Anwendungen ermöglichen es dem Nutzer, seine gesamte Historie herunterzuladen und in einem kompatiblen Format mitzunehmen.“ Die Verordnung empfiehlt außerdem die Anonymisierung personenbezogener Daten.“
Laut AEPD besteht die Anonymisierung darin, personenbezogene Daten in Daten umzuwandeln, die nicht zur Identifizierung einer bestimmten Person verwendet werden können. In ihren Leitlinien zum Umgang mit künstlicher Intelligenz erklärt die Agentur, dass Anonymisierung eine der Techniken zur Minimierung der Datennutzung sei und sicherstelle, dass nur die für den jeweiligen Zweck notwendigen Daten verwendet würden.
Neues Gesetz zur künstlichen Intelligenz
Nach Inkrafttreten des neuen EU-Gesetzes zu künstlicher Intelligenz müssen Unternehmen, die personenbezogene Daten verwalten, drei zentrale Aspekte berücksichtigen. Nach Angaben des Beratungsunternehmens Entelgy müssen sie in einem europäischen Register offenlegen, wie der Algorithmus funktioniert und welche Inhalte er generiert; Einrichtung menschlicher Überwachungsmechanismen (obwohl dies empfohlen, aber nicht obligatorisch ist); Und schließlich stellen Sie sicher, dass große Sprachmodelle (LLM) über Sicherheitssysteme verfügen und dass Entwickler Transparenz über das von ihnen verwendete urheberrechtlich geschützte Material haben.
Allerdings ist das neue Gesetz nicht unvereinbar mit der Datenschutz-Grundverordnung. Martínez erklärt: „KI, die personenbezogene Daten verarbeitet oder in Zukunft personenbezogene Daten generiert, wird niemals auf den Markt kommen können, wenn sie nicht die Einhaltung der DSGVO gewährleistet. Dies zeigt sich insbesondere bei Hochrisikosystemen, die ein Data-Governance-Modell sowie Betriebs- und Nutzungsaufzeichnungen implementieren müssen, die die Rückverfolgbarkeit gewährleisten.“
Der nächste Schritt für künstliche Intelligenz besteht laut Adsuara darin, die gesammelten persönlichen Informationen in einer Art persönlichen Pool zu nutzen: „Ein Ort, an dem jeder seinen Speicher für Dokumente mit persönlichen Daten hat, die Informationen aber nicht verlassen.“ Mit anderen Worten: Es dient nicht dazu, die universelle generative künstliche Intelligenz zu ernähren“, erklärt er.
Melden Sie sich an für Unser wöchentlicher Newsletter um mehr englischsprachige Berichterstattung von der EL PAÍS USA Edition zu erhalten