„Unsere Kunden wollen eindeutig nicht, dass wir unser Modell mit ihren Daten trainieren, also haben wir unsere Pläne geändert.“sagte Sam Altman am Freitag, den 5. Mai, im amerikanischen Fernsehsender CNBC. Der CEO von OpenAI, dem kalifornischen Start-up, das den berühmten virtuellen Chatbot chatgpt entwickelt, hat angekündigt, dass diese wichtige Änderung tatsächlich stattgefunden hat „vor einiger Zeit“ : seit dem 1. März, so scheint es.
ChatGPT ist in der Lage, maßgeschneiderte Antworten auf jede Frage zu generieren, nachdem es mit riesigen Mengen an Textdaten trainiert wurde, und hat seit seiner Einführung im November Faszination und Besorgnis geweckt. Insbesondere der Schutz der personenbezogenen Daten seiner Nutzer scheint durch dieses besonders undurchsichtig agierende Tool nicht gewährleistet. Das Unternehmen weigert sich beispielsweise, die für seine Ausbildung verwendeten Datensätze preiszugeben.
ChatGPT: Die ersten beiden Beschwerden bei der CNIL eingereicht
In jedem Fall werden seit dem 1. März die vom Benutzer zum Zeitpunkt seines virtuellen Dialogs mit dem Chatbot bereitgestellten Informationen nicht mehr gespeichert, um das Tool zu verbessern. Mit einem Detail: Dieser Schutz betrifft nur Unternehmen mit einem kostenpflichtigen Abonnement. Auf diese Weise können sie die OpenAI-Technologie verwenden, um ihre eigenen Softwarelösungen zu erstellen.
Internetnutzer, die die öffentliche Version von ChatGPT verwenden, sehen weiterhin, dass ihre virtuellen Gespräche mit dem Chatbot ausgenutzt werden, um ihn zu verbessern.
Samsung und Amazon
Diese Ankündigung des CEO von OpenAI soll daher vor allem Unternehmen beruhigen. Einige haben in den letzten Wochen gesehen, wie Informationen aus ihrer internen Dokumentation bei Anfragen von außen „auftauchten“. Am 2. Mai erklärte der Konzern Samsung Electronics, dass er einigen seiner Mitarbeiter die Verwendung solcher Tools untersagt habe, nachdem er dies in einem internen Dokument vermerkt hatte « cas d’use missbräuchlich ». Goldman Sachs hatte zuvor eine ähnliche Ankündigung gemacht.
Künstliche Intelligenz: Von Turing bis ChatGPT, wie Computer sprechen lernten
Bereits im Januar wies Amazon seine Mitarbeiter an, keine vertraulichen Informationen an ChatGPT weiterzugeben, damit sie nicht in den Antworten des Chatbots auftauchen. Einige Techniker im Unternehmen hatten begonnen, ChatGPT zu verwenden, um ihnen beim Schreiben von Computercode zu helfen.
„Das wirft Fragen zu personenbezogenen Daten, aber auch Urheberrechten und sogar Geschäfts- oder Arztgeheimnissen auf“, erklärt Arnaud Latil, Rechtsdozent an der Universität Sorbonne. Doch für ihn stellt sich vor allem bei Trainingsdaten die Frage nach der Legalität von ChatGPT. Die Milliarden von Internetseiten, die das Tool aufnehmen musste, um zu „lernen“, Texte zu generieren, enthalten zweifellos eine Unmenge an persönlichen Informationen.
Wieder zugelassen in Italien
Die italienische Datenschutzbehörde blockierte ChatGPT den ganzen Monat April und beschuldigte es, die Datenschutz-Grundverordnung (DSGVO) nicht einzuhalten und kein System zur Überprüfung des Alters minderjähriger Benutzer zu haben.
Am 28. April gab OpenAI bekannt, dass es in Italien wieder funktionsfähig sei. Das Unternehmen versicherte, dass es nun auf seiner Website Informationen darüber veröffentlichen werde, wie es geht „Sammlung“ et „nutzt trainingsbezogene Daten“. A “ mehr Sichtbarkeit » wird in der Richtlinie zu personenbezogenen Daten auf der Homepage von ChatGPT und OpenAI angegeben.
Wenn sich der Benutzer zum ersten Mal mit ChatGPT verbindet, wird er darüber informiert, dass die in den Gesprächen bereitgestellten Daten ausgenutzt werden, aber er hat keine Mittel, sich dagegen zu wehren. Die Einwilligung ist eine der von der DSGVO bereitgestellten Rechtsgrundlagen, um eine solche Nutzung zu genehmigen.