Das Problem bei generativen KI-Programmen wie dem äußerst beliebten chatgpt von OpenAI liegt im Wesentlichen in der Privatsphäre und Zustimmung der Benutzer, schreibt Daniel Barber von DataGrail.
ChatGPT von Open AI hat die Aufmerksamkeit von Millionen Menschen auf der ganzen Welt auf sich gezogen. Es war spannend, alle möglichen Möglichkeiten zu sehen, das Leben einfacher und informierter zu machen.
Aber aus Sicht der Privatsphäre ist die moderne generative KI etwas erschreckend.
Sie denken vielleicht: „Ich möchte ChatGPT nur verwenden, um einen Blog-Beitrag zu schreiben – wo soll das denn schaden?“
Das zugrunde liegende Problem ist das der Einwilligung.
Warum Einwilligung wichtig ist
Alle aktuellen generativen KI-Modelle, ob Stable Diffusion oder ChatGPT, werden ohne das Konzept der Einwilligung erstellt. Sie werden auf der Grundlage von Informationen erstellt, von denen die Leute nicht wussten, dass sie für diesen Zweck verwendet werden würden.
Es ist eine Sache, der Verwendung Ihrer Daten zuzustimmen, um ein Erlebnis auf einer Website zu personalisieren oder sogar eine öffentliche Bewertung für ein lokales Restaurant abzugeben. Es ist etwas ganz anderes, wenn Ihre Daten in einen riesigen Algorithmus einfließen, der für wer weiß was verwendet wird. Niemand hat ausdrücklich zugestimmt, dass seine kreativen Leistungen, Gedanken, Ideen oder Arbeiten in diese Modelle einfließen.
Heutzutage beziehen Unternehmen wie Stable Diffusion und OpenAI ihre Modelle, indem sie Informationen aus dem Internet beziehen (obwohl Stable Diffusion es Künstlern ermöglicht, verwendete Bilder zu identifizieren und sich über ein spezielles Tool abzumelden). Dieser Prozess ist problematisch, da im modernen Internet das Konzept der Einwilligung nicht an bestimmte Daten gekoppelt ist.
Das, was uns am nächsten kommt, ist das moderne Urheberrechtssystem, das nicht darauf ausgelegt ist, eine Einwilligung zu erteilen, sondern vielmehr darauf, den Rechteinhabern die Kontrolle zu geben. Daher werden Milliarden von Datenpunkten in einem bemerkenswerten Tempo auf eine Art und Weise ausgewertet, von der die Menschen nichts wissen, die sie nicht verstehen oder die sie nicht genehmigen können.
Das Problem wird besonders heikel, weil einige Identitäten verwechselt werden oder ChatGPT mangels Daten bekanntermaßen falsche Informationen über bekannte Personen erfindet – in der Fachwelt manchmal als „Halluzination“ bekannt – und es nur sehr wenig Gegenmaßnahmen gibt. Es bleibt unklar, wie Menschen Fehler über sich selbst korrigieren können, was ChatGPT die Tür zum größten Internet-Troll von allen öffnet.
Dies deutet auf ein größeres regulatorisches Problem hin. In den USA vergessen die Menschen ständig, die Weitergabe ihrer Daten abzulehnen. Sie möchten eine Website nutzen oder eine Bewertung abgeben und weitermachen, ohne an mögliche Konsequenzen zu denken. Was sie teilen, ist dann öffentlich zugänglich und kann von großen Sprachmodellen (LLMs) wie ChatGPT in ihre Trainingsdaten übernommen werden.
In der EU ist das eine andere Geschichte; Die strenge Datenschutzgesetzgebung der EU-Datenschutz-Grundverordnung (DSGVO) schreibt vor, dass sich Menschen dafür entscheiden müssen, den Zugriff auf ihre Daten und deren Weitergabe zu erlauben.
Generative KI-Programme stehen unter behördlicher Prüfung
OpenAI und andere Unternehmen, die LLMs nutzen, um auf persönliche Daten zuzugreifen, sind offiziell gefährdet. Am 31. März wies Italien ChatGPT an, die Verarbeitung der Daten seiner Bürger mit sofortiger Wirkung einzustellen.
Und Italien dürfte nicht das letzte europäische Land sein, das ein solches Verbot erlässt. Da OpenAI über keine etablierte juristische Person in der EU verfügt, unterliegt es dem Eingreifen jeder Datenschutzbehörde gemäß der DSGVO-Verordnung, die immer dann gilt, wenn personenbezogene Daten eines EU-Bürgers verarbeitet werden.
Unter der Annahme, dass OpenAI bei der Ausbildung seiner LLMs die Daten von Europäern verarbeitet hat, ist es möglich, dass die verschiedenen Datenschutzbehörden Europas über mögliche Verbote hinaus die Löschung dieser Daten anordnen könnten. Dies würde verheerende Schäden anrichten, die die Nutzung überall beeinträchtigen würden. Die Auswirkungen wären tiefgreifend. Und der Prozess der Datenlöschung ist in diesem Ausmaß unglaublich komplex. Selbst wenn dies möglich wäre, müssten die Modelle umgeschult werden oder der Anmeldeprozess müsste grundlegend geändert werden.
Eine weitere Möglichkeit besteht darin, dass Unternehmen, die ChatGPT nutzen, mit erheblichen Geldstrafen der EU rechnen müssen, wenn sie personenbezogene Daten ohne Einwilligung verarbeiten. Dies könnte eine ziemlich große Sache sein, da die DSGVO etwa 500 Millionen Menschen betrifft und die EU bei der Durchsetzung aggressiver geworden ist.
Italien hat den ersten Schuss auf ChatGPT abgefeuert, und wir werden sehen, wie OpenAI in den kommenden Tagen reagiert. Eines ist jedoch klar: Dieses Problem wird so schnell nicht verschwinden.
Die Verantwortung liegt bei den Unternehmen
Generative KI stellt eine dringende Bedrohung dar, da sich ChatGPT und ähnliche Konkurrenten mit erstaunlicher Geschwindigkeit vermehren. Noch mehr LLMs, angetrieben von größeren Mengen an persönlichen Informationen, werden in die Welt gelangen, bevor wir ganz auf Pause drücken können.
In den USA haben die Gesetzgeber die Bundesgesetzgebung zum Datenschutz viel zu lange hinausgezögert. Es muss über einen kurzsichtigen Fokus auf die Datenschutzrisiken von TikTok hinausgehen, um den Horizont zu erweitern. ChatGPT und andere generative KI-Programme können, wenn sie nicht reguliert werden, möglicherweise noch größeren Schaden anrichten. Regulierung ist erforderlich, um die Einwilligung einzuholen, zu bestimmen, wer zum Zugriff auf diese Inhalte berechtigt ist, und Richtlinien für den Schutz von Identitäten und geistigem Eigentum in der neuen Welt der generativen KI festzulegen. Es ist Zeit, dass der Kongress seine Arbeit erledigt.
In der Zwischenzeit müssen die Unternehmen selbst Verantwortung übernehmen. Diejenigen, die benutzergenerierte Inhalte aufnehmen und speichern, tragen eine Verantwortung. Wie können sie ihre Nutzer schützen – oder sie zumindest darüber informieren, wie ihre Daten verwendet werden?
Unternehmen müssen darüber nachdenken, wie Nutzer heute von Einwilligung und generativer KI betroffen sind – oder wie sie in Zukunft sein könnten. Viele Organisationen haben ihr Geld damit verdient, dass sie die Inhalte einzelner Benutzer allgemein zugänglich gemacht haben. Jetzt haben sich die Regeln geändert.
Wenn eine Organisation dem Argument folgt, dass die nicht einvernehmliche Nutzung von Benutzerinhalten verboten werden sollte, ist es unbedingt erforderlich, dass sie den potenziellen Schaden für Benutzer erkennt, wenn ihre Daten generativen KI-Modellen öffentlich zugänglich gemacht werden. Unternehmen müssen sich darüber im Klaren sein, was sie tun werden, auch wenn es nur ein Kontrollkästchen für die Zustimmung zur Einspeisung ihrer Inhalte in LLMs ist.
Natürlich ist es wichtig darauf hinzuweisen, dass generative KI nicht per se schlecht ist. Die Technologie selbst ist eigentlich ziemlich unglaublich. Aber die Zustimmung muss in den Prozess integriert werden, und die Modelle, die ihm zugrunde liegen, müssen mit dem Wissen und der Zustimmung der Mitwirkenden erstellt werden.
Ohne Zweifel wird generative KI die Gesellschaft verändern. Es liegt in unserer Verantwortung, dass die Art und Weise, wie es das Leben berührt, zu einer netzdienlichen Störung führt. Generative KI sozialisiert die Kosten und privatisiert den Nutzen, und wir müssen einen Weg finden, diesen Machtfluss auszugleichen. Die Zeit ist nicht auf unserer Seite.
Daniel Barber ist Mitbegründer und CEO von DataGrail.
Um mehr über den neuesten Deep Dive von The Drum zu erfahren, in dem wir im Jahr 2023 Daten und Datenschutz für Vermarkter entmystifizieren, besuchen Sie unseren speziellen Hub.