chatgpt“ data-firm-ref=“3099″ data-content-type=“Article“ data-workareas=“8,21″ data-jurisdictions=“85″>

Italiens Datenschutzbehörde (DPA) hob ein vorübergehendes Verbot auf über die Aktivitäten von ChatGPT in Italien, nachdem OpenAI, der Anbieter des generativen KI-Systems, zugestimmt hat, eine Reihe von Änderungen an seinen Online-Mitteilungen und Datenschutzrichtlinien umzusetzen, die sich auf Transparenz, Optionalität und Sicherheit konzentrieren. Wie in einem früheren Blog besprochen, Regulierungsbehörden auf der ganzen Welt konzentrieren sich verstärkt auf generative KI-Technologien, was mehrere Regulierungsbehörden dazu veranlasst, Schritte zur Regulierung dieser Technologie einzuleiten. Italien war das erste westliche Land, das ChatGPT offiziell vollständig verbot, als die Datenschutzbehörde des Landes aufgrund von Bedenken hinsichtlich eines mutmaßlichen Verstoßes gegen Datenschutzbestimmungen in Europa einen vorübergehenden Stopp der Verarbeitung italienischer Benutzerdaten forderte. Ebenso hat China kürzlich einen Entwurf veröffentlicht „Maßnahmen zur Verwaltung generativer künstlicher Intelligenzdienste,“ worauf wir in einem zukünftigen Blogbeitrag ausführlicher eingehen werden.

Regulatorische Bedingungen für die Wiederaufnahme generativer KI in Italien

OpenAI reagierte schnell auf die Bedenken der italienischen Datenschutzbehörde, indem es eine Reihe von Änderungen an den ChatGPT-Richtlinien und -Protokollen einführte, zusätzliche Informationen darüber offenlegte, wie das Unternehmen Daten sammelt und verarbeitet und Protokolle implementierte, um die Sicherheit des KI-Tools zu erhöhen. Die Maßnahmen des Unternehmens, darunter wesentliche Änderungen bei der Art und Weise, wie sich Personen für die Nutzung von ChatGPT anmelden, sowie neue Offenlegungen und Rechte der Verbraucher hinsichtlich der Art und Weise, wie das System personenbezogene Daten erfasst und verarbeitet, bedeuten, dass die italienische Datenschutzbehörde nun die ersten Regeln für die Nutzung von ChatGPT effektiv umgesetzt und durchgesetzt hat generative KI-Systeme.

Zu den Änderungen, die das Unternehmen als Reaktion auf die Forderungen der italienischen Datenschutzbehörde angenommen hat, gehören:

  • Bereitstellung einer Benachrichtigung für Benutzer, in der beschrieben wird, welche personenbezogenen Daten beim Training seiner Modelle verarbeitet werden dürfen;
  • Allen Personen in Europa, auch Nicht-Nutzern, das Recht einzuräumen, der Verarbeitung ihrer Daten zum Training der Unternehmensmodelle zu widersprechen, und ein Online-Verfahren zur Durchführung einer solchen Wahl bereitzustellen;
  • Einführung neuer Mechanismen, die es betroffenen Personen ermöglichen, die Löschung von Informationen zu erreichen, die als unrichtig gelten („mit der Begründung, dass es zum jetzigen Zeitpunkt technisch unmöglich ist, Ungenauigkeiten zu korrigieren“);
  • Klarstellung, dass die Verarbeitung bestimmter personenbezogener Daten weiterhin auf der Grundlage vertraglicher Verpflichtungen erfolgt, wobei darauf hinzuweisen ist, dass das Unternehmen die personenbezogenen Daten der Nutzer zum Trainieren von Algorithmen auf der Rechtsgrundlage seines berechtigten Interesses verarbeiten würde, unbeschadet des Rechts der Nutzer, einer solchen Verarbeitung zu widersprechen;
  • Durch die Aktualisierung der Anmeldeseite wird der Zugriff für Benutzer unter 13 Jahren blockiert
  • Für Benutzer im Alter zwischen 13 und 18 Jahren wird die Zustimmung der Eltern eingeholt.
Siehe auch  Australischer Bürgermeister droht, OpenAI wegen Verleumdung durch Chatbot zu verklagen

Das Treffen mit den Regulierungsbehörden öffnet die Tür für den weiteren Betrieb

Trotz der bemerkenswerten Änderungen an den ChatGPT-Richtlinien und -Verfahren sind nicht alle Elemente im ursprünglichen Satz der italienischen Datenschutzbehörde „erforderlichen Maßnahmen„wurde akzeptiert oder es wurde darauf reagiert. Beispielsweise forderte die italienische Datenschutzbehörde zunächst den Start einer „Informationskampagne“, die die „Methoden und Logik“ offenlegen würde, die der Datenverarbeitungsmethodik von ChatGPT zugrunde liegen. Darüber hinaus forderte die italienische Datenschutzbehörde die Entfernung jeglicher Verweis auf die „Ausführung eines Vertrags“ als erforderliche Rechtsgrundlage für die Verarbeitung der personenbezogenen Daten eines Nutzers. Stattdessen forderte die italienische Datenschutzbehörde, dass sich das Unternehmen bei der Erhebung und Verarbeitung personenbezogener Daten eines Nutzers ausschließlich auf die Einwilligung oder berechtigte Interessen eines Nutzers verlassen darf .

Dennoch würdigte die italienische GPA die von OpenAI ergriffenen Maßnahmen und bezeichnete sie als „Schritt vorwärts“ bei der Vereinbarkeit von „technologischen Fortschritten mit der Achtung der Rechte des Einzelnen“. In diesem Sinne könnte die Reaktion auf die Forderungen der italienischen Datenschutzbehörde als vernünftiger „Mittelweg“ und mögliche Vorlage dafür angesehen werden, wie andere Unternehmen, die generative KI-Tools einsetzen, auf internationale Datenregulierungsbehörden reagieren könnten.

Die italienische Datenschutzbehörde bestätigte außerdem, dass sie „ihre Ermittlungsaktivitäten“ unter dem „Dach der damaligen Ad-hoc-Task Force“ fortsetzen werde eingerichtet vom Europäischen Datenschutzausschuss.“

Was kommt als nächstes

Die Reaktion von OpenAI könnte einen möglichen Fahrplan für zukünftige Interaktionen zwischen Regulierungsbehörden und Teilnehmern der KI-Branche darstellen. Ein größeres Problem am Horizont ist die verschärfte regulatorische Kontrolle für Unternehmen Nutzung von KI-Technologien oder über neue KI-Einsätze nachdenken. Beispielsweise kündigte die britische Wettbewerbs- und Marktaufsichtsbehörde (CMA) die Einleitung einer „ersten Überprüfung“ von „ an.KI-Grundlagenmodelle„, um die großen Sprachmodelle einzubeziehen, die ChatGPT und ähnlichen KI-zentrierten Diensten zugrunde liegen. In der Ankündigung der CMA hieß es, dass ihre Überprüfung „Wettbewerbs- und Verbraucherschutzüberlegungen“ bei der Entwicklung und Nutzung von KI-Grundmodellen untersuchen würde. Das erklärte Ziel der CMA besteht darin, eine zu gewinnen besseres Verständnis darüber, „wie sich Fundamentmodelle entwickeln, und Erstellung einer Bewertung der Bedingungen und Prinzipien, die die Entwicklung von Fundamentmodellen und deren Verwendung in der Zukunft am besten leiten werden.“

Siehe auch  Xbox verhängte eine Geldstrafe von 20 Millionen US-Dollar wegen „illegaler“ Speicherung von Kinderdaten

Für Unternehmen, die auf KI basierende Produkte und Dienstleistungen anbieten oder entwickeln, ist es wichtig, Vorsicht walten zu lassen und proaktive Maßnahmen zu ergreifen, um die Leitlinien der US-amerikanischen Federal Trade Commission und anderer inländischer und internationaler Regulierungsbehörden einzuhalten.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein