Jerry Cuomo, CTO von IBM Automation, veröffentlichte kürzlich einen Blog-Beitrag, in dem er die seiner Meinung nach mehreren Risiken im Zusammenhang mit der Verwendung von chatgpt für Unternehmen darlegt.
Dem Blogbeitrag zufolge gibt es mehrere wichtige Risikobereiche, die Unternehmen berücksichtigen sollten, bevor sie ChatGPT nutzen. Letztendlich kommt Cuomo jedoch zu dem Schluss, dass bei ChatGPT nur nicht sensible Daten sicher sind:
„Sobald Ihre Daten in ChatGPT sind“, schreibt Cuomo, „haben Sie keine Kontrolle oder Kenntnis darüber, wie sie verwendet werden.“
Dem Beitrag zufolge könnte diese Art von unbeabsichtigtem Datenschutzverstoß ein Unternehmen auch rechtlich in die Klemme bringen, wenn Partner-, Kunden- oder Verbraucherdaten der Öffentlichkeit zugänglich gemacht werden, nachdem sie an ChatGPT-Schulungssysteme weitergegeben wurden.
Cuomo verweist außerdem auf Risiken in Bezug auf geistiges Eigentum und die Möglichkeit, dass ein Leck dazu führen könnte, dass Unternehmen gegen Open-Source-Vereinbarungen verstoßen.
Laut einem IBM-Blogbeitrag:
„Wenn sensible Informationen Dritter oder interne Unternehmensinformationen in ChatGPT eingegeben werden, werden diese Teil des Datenmodells des Chatbots und können mit anderen geteilt werden, die relevante Fragen stellen.“
Der Sprecher für Öffentlichkeitsarbeit von OpenAI kommentierte die obige Aussage:
„Diese Daten werden nicht an andere Personen weitergegeben, die entsprechende Fragen stellen.“
Der Vertreter verwies auch auf die vorhandene Dokumentation zu den Datenschutzfunktionen von ChatGPT, einschließlich eines Blogbeitrags, in dem die Möglichkeit für Webbenutzer, den Chatverlauf zu deaktivieren, detailliert beschrieben wird.
Laut OpenAI ist die Datenfreigabe in der ChatGPT-API standardmäßig deaktiviert.
„Die API-Richtlinie ist sehr klar – was verwirrend ist, ist die Richtlinie bezüglich der Konversationen, die wir über die ChatGPT-Weboberfläche und iOS/Android-Apps führen“, twitterte Simon Willison (@simonw) am 15. August 2023/X.
Kritiker weisen jedoch darauf hin, dass Konversationen in der Webversion standardmäßig gespeichert werden. Benutzer sollten sich auch gegen das Speichern ihrer Konversationen (eine praktische Funktion, um dort weiterzumachen, wo sie aufgehört haben) und die Verwendung ihrer Daten zum Trainieren des Modells entscheiden. Derzeit ist es nicht möglich, Gespräche ohne Zustimmung zur Datenweitergabe zu speichern.