Künstliche Intelligenz und maschinelles Lernen, Datenschutz-Grundverordnung (DSGVO), Technologien der nächsten Generation und sichere Entwicklung

Die Datenagentur für den Raum Rheinland-Pfalz wird weitere Fragen an OpenAI senden

Akshaya Asokan (asokan_akshaya) • 31. Oktober 2023

chatgpt-probe-showcase_image-2-a-23449.jpg“ alt=“Deutsche Datenaufsichtsbehörde intensiviert ChatGPT-Untersuchung“ class=“img-responsive „/>
Die Datenaufsichtsbehörde für die südwestdeutsche Region Rheinland-Pfalz hat weitere Fragen an den ChatGPT-Entwickler OpenAI. (Bild: Shutterstock)

Eine deutsche Datenaufsichtsbehörde sagte, sie werde ihre Untersuchung des ChatGPT-Herstellers OpenAI vertiefen, um festzustellen, ob die Datenverarbeitungsanforderungen des Unternehmens dem europäischen Datenschutzrecht entsprechen.

Siehe auch: Navigieren zur SEC-Compliance: Ein umfassender Ansatz zur Cybersicherheitsresilienz

Im April wird die Datenaufsichtsbehörde für die südwestdeutsche Region Rheinland-Pfalz bekannt gegeben gestartet eine Untersuchung des in San Francisco ansässigen Unternehmens OpenAI. Ziel der Untersuchung war es zu prüfen, ob ChatGPT Daten, einschließlich der Daten von Kindern, im Einklang mit der Datenschutz-Grundverordnung verarbeitet.

In einem Update vom Freitag teilte die Agentur mit sagte Es werden zusätzliche Fragen gesendet, um zu klären, wie das Unternehmen sensible Benutzerdaten in Bezug auf Rasse, Religion und politische Meinung verarbeitet.

Die intensivierte Untersuchung wird sich insbesondere auf das Ausmaß konzentrieren, in dem ChatGPT den Benutzern das Recht garantiert, auf ihre persönlichen Daten zuzugreifen und diese auf Anfrage zu löschen.

OpenAI wird zunehmend unter die Lupe genommen, da die Europäische Union dabei ist, die weltweit erste umfassende KI-Verordnung fertigzustellen. Im Rahmen der Veranstaltung werden sich am Mittwoch und Donnerstag auch führende Politiker und Technologieführer aus aller Welt im Bletchley Park im Vereinigten Königreich versammeln KI-Sicherheitsgipfel um das Risiko zu diskutieren, das von großen Sprachmodellen und anderen hochmodernen KI-Systemen ausgeht und ein potenzielles existenzielles Risiko darstellen könnte.

„Künstliche Intelligenz muss verständlich und erklärbar sein, und nur so kann sie kontrolliert und an den legitimen Normen und Werten unserer Gesellschaft gemessen werden“, sagte Dieter Kugelmann, der Landesbeauftragte für Datenschutz und Informationsfreiheit, in eine Maschine Übersetzung seiner deutschen Aussage. „Deshalb geben wir uns viel Mühe, ChatGPT zu überprüfen und mit unseren neuen Fragen für noch mehr Transparenz zu sorgen“, sagte er.

Siehe auch  ChatGPT kann jetzt im Internet nach aktualisierten Informationen suchen | Technische Neuigkeiten

Die Untersuchung der deutschen Regulierungsbehörde wurde von der neu gegründeten ChatGPT-Task Force eingeleitet, die im April vom Europäischen Datenschutzausschuss eingesetzt wurde. Die Task Force wurde im Zuge zunehmender Datenschutzuntersuchungen zu ChatGPT in ganz Europa gebildet und versucht, den Informationsaustausch über die Software zwischen anderen Datenschutzbehörden zu koordinieren (siehe: Die europäische Kontrolle von ChatGPT nimmt mit der Zunahme der Untersuchungen zu ).

In Europa wird OpenAI derzeit in Frankreich, Spanien und Polen untersucht.

Ein rheinland-pfälzischer Sprecher sagte, die Antwort von OpenAI werde von der Behörde verwendet, um über die weitere Vorgehensweise bei der Regulierung der Technologie in der Zukunft zu entscheiden. „Eine genaue und sorgfältige Auswertung der erwarteten Antworten wird voraussichtlich nicht vor Ende dieses Jahres abgeschlossen sein“, sagte der Sprecher.

OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein