Im April 2023, deutscher Künstler Boris Eldagsen gewann den Open Creative Award für seinen Fotobeitrag mit dem Titel Pseudomnesia: The Electrician. Das Verwirrende an der Veranstaltung für die Jury und das Publikum war jedoch, dass er sich weigerte, den Preis entgegenzunehmen. Der Grund dafür war, dass das Foto von einem Tool der künstlichen Intelligenz (KI) erstellt wurde. Es wurde berichtet, dass Eldagsen „sagte, er habe das Bild genutzt, um den Wettbewerb zu testen und eine Diskussion über die Zukunft der Fotografie anzustoßen“. War es das Manko der Richter, dass sie nicht unterscheiden konnten, was echt und was gefälscht war?

Generative KI stellt die Herausforderung dar, die Grenzen zwischen dem, was real ist, und dem, was künstlich geschaffen wurde, zu verwischen. Ähnlich verhält es sich mit Textinhalten: Das schiere Vertrauen, das ein Chatbot ausstrahlt, während er manchmal voreingenommene und verfälschte Informationen generiert, gibt ahnungslosen Benutzern nicht den geringsten Hinweis auf die Zuverlässigkeit des Inhalts.

Solche Bedrohungen, die von KI-Tools wie DALL-E, BARD und vor allem chatgpt ausgehen, beschränken sich nicht nur auf voreingenommene oder gefälschte Informationen. Aus datenschutzrechtlicher Sicht wirft die Technologie ernsthafte Bedenken auf.

Was ist ChatGPT und warum sorgen seine Datenerfassungspraktiken für Aufsehen?

Obwohl es viele Versuche mit KI-Chatbots gab, ist ChatGPT bei weitem das einzige Tool, das eine so umfassende und unmittelbare globale Wirkung hatte. Das Tool erregte nicht nur sofort nach seiner Einführung große Aufmerksamkeit, sondern brach auch den Rekord als eines der besten Tools, das in den ersten drei Monaten Hunderte Millionen Benutzer anzog.

Siehe auch  Warum Benutzer ChatGPT ein Kompliment machen müssen, um das Beste daraus zu machen – die Informationen

Was ChatGPT so erstaunlich macht, ist, dass es Milliarden Bytes an Daten aus Online-Blogs, E-Books, Community-Foren und -Threads und ähnlichen Orten verwendet, um sich selbst zu trainieren. Jetzt kann es im Bruchteil einer Sekunde sehr detaillierte Antworten auf die Eingabeaufforderung eines Benutzers generieren. Tatsächlich hat das neue ChatGPT 4, das auf Milliarden von Parametern mehr trainiert wurde als die frühere Version, eine Reihe ziemlich schwieriger Prüfungen bestanden, wie etwa das Uniform Bar Exam, den Law School Admission Test (LSAT) und das Scholastic Assessment Test (SAT).

Die Frage ist nun, warum ihre Datenerfassungspraktiken abgelehnt werden, wenn alle Informationen, auf die sie geschult werden, bereits öffentlich sind? Zwar stellen frei verfügbare öffentliche Daten keine Datenschutzbestimmungen dar, wie z Allgemeine Datenschutzverordnung (DSGVO). Es gibt jedoch bestimmte Ausnahmen von dieser Regel. Wenn die öffentlich zugänglichen Informationen zunächst sensible personenbezogene Daten wie Rassendaten, ethnische Herkunft sowie politische oder religiöse Ansichten umfassen, dann gelten möglicherweise die Datenschutzbestimmungen.

Darüber hinaus nutzen die Entwickler von OpenAI die übermittelten Eingabeaufforderungen, um ChatGPT kontinuierlich zu trainieren. Es ist zu beachten, dass nicht vollständig ersichtlich ist, in welchem ​​Umfang das Tool solche Informationen sammelt und speichert. Noch wichtiger ist, dass das System die Aufforderungen sofort nutzt, um sich weiterzubilden. Dies bedeutet, dass die vom Benutzer bereitgestellten Daten nun Teil der kollektiven KI-Intelligenz sind und niemals gelöscht werden dürfen, was eng an der Grenze der Nichteinhaltung des Rechts auf Löschung und des Rechts auf Löschung gemäß der DSGVO und ähnlichen anderen globalen Regelungen liegt Datenschutzgesetze.

Vertrauliche Informationen der Organisation sind gefährdet

ChatGPT wurde für eine Vielzahl von Zwecken verwendet. Menschen nutzen KI-Reaktionen für akademische Forschungszwecke, für Marketingkommunikation und sogar für die Entwicklung oder Überprüfung von Programmcode. Dies birgt ein hohes Risiko der Weitergabe vertraulicher oder geschützter Informationen. Da das Tool beispielsweise grammatikalische oder kontextbezogene Fehler in Texten oder Fehler in Codes effizient behebt, geben Menschen bereitwillig vertrauliche Informationen an das KI-Tool weiter. Beispielsweise mehrere Mitarbeiter von Samsung haben proprietäre Daten an ChatGPT weitergegeben, als sie diese zur Überprüfung ihres Programmiercodes verwendeten.

Siehe auch  KI und Menschen arbeiten am ersten von ChatGPT entwickelten Roboter zusammen

Das Risiko voreingenommener Informationen

ChatGPT wird anhand der Eingaben trainiert, die es von Benutzern erhält. Vor seiner Veröffentlichung wurde es bis 2021 anhand der im Internet verfügbaren Informationen trainiert. Der resultierende Inhalt hängt stark von der Qualität und Art der Daten ab, anhand derer trainiert wird. Da das Internet voller gefälschter und voreingenommener Inhalte aller Art ist, reproduzieren KI-Tools die in den Daten vorhandenen Vorurteile. Das Gleiche gilt für Inhalte, die Diskriminierung beinhalten.

Wie reagieren die Weltführer auf ChatGPT und KI?

Italien war das erste westliche Land, das ChatGPT aus Datenschutzgründen vorübergehend verbot. Das Land erhielt Beschwerden von Künstlern und Medienagenturen gegen das KI-Tool wegen der Nutzung ihrer Werke ohne deren Zustimmung, was letztendlich zur DSGVO-Verordnung führte. Während das Verbot war vor Kurzem umgekehrt Nachdem OpenAI einige Datenschutzgarantien vorgelegt hat, zeigt sich, wie eine Technologie, die zum Nutzen der Menschen entwickelt wurde, unbeabsichtigte Folgen haben kann.

Abschluss

Es besteht kein Zweifel daran, dass ChatGPT und andere KI-Tools das Potenzial haben, die Art und Weise, wie wir nach Informationen suchen oder kommunizieren, zu verändern. Allerdings werfen Datenschutzgesetze echte Bedenken hinsichtlich der potenziellen Risiken und Auswirkungen von KI auf. Die Datenschutzgesetze versuchen langsam, mit den KI-Tools und -Technologien Schritt zu halten, die nach dem immensen Erfolg von ChatGPT beschleunigt wurden. Im April 2023 bekundeten die G7-Staaten großes Interesse daran regulierend ChatGPT und ähnliche generative KI-Technologien. Ihr Interesse wird jedoch durch den Wunsch gedämpft, einen risikobasierten Ansatz statt einer drakonischen Lösung anzustreben. Glücklicherweise gibt es zwischen den Bemühungen von Nationen sowie Organisationen wie NIST, die veröffentlicht haben Orientierungshilfe Bei der KI-Entwicklung können wir möglicherweise eine Brücke zwischen Datenschutz und KI schlagen.

Siehe auch  So verbessern Sie Ihr Webbrowser-Erlebnis mit ChatGPT von Opera

Über den Autor:

Mit einem starken Hintergrund in der SaaS- und IaaS-Branche, Syed Sayem Mustufa verfügt über umfangreiche Erfahrung im Marketing. Im Laufe der Jahre hat Sayem einige der führenden Datenintelligenz- und Cybersicherheitsmarken betreut, darunter Securiti.ai. Er liebt nichts mehr, als hochkomplexe Produktdetails in leicht verständliche Vorteile für den Endbenutzer aufzuschlüsseln und zu vereinfachen.

Anmerkung der Redaktion: Die in diesem und anderen Artikeln von Gastautoren geäußerten Meinungen sind ausschließlich die des Autors und spiegeln nicht unbedingt die von Tripwire wider.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein