Shutterstock
Unternehmen erstellen nicht nur Chatbots, viele Mitarbeiter nutzen sie auch täglich – mit oder ohne Autorisierung. ChatGPT und dergleichen können schwerwiegende Datenschutzverletzungen verursachen. Wie kann man sich davor schützen?
Oftmals rechtswidrig
Welche Kundenprofile kaufen in Ihrem Geschäft ein? Wohin müssen noch Lieferungen erfolgen? Wie erstelle ich ein Angebot auf Polnisch? All das sind Fragen, die KI-Chatbots wie ChatGPT im Handumdrehen beantworten können. Sie müssen lediglich Ihre Dokumente hochladen und der digitale Assistent fasst sie sorgfältig zusammen. Daher ist es nur logisch, dass viele Mitarbeiter digitale Assistenten am Arbeitsplatz verwenden, sei es, um Zeit zu sparen oder um weniger angenehme Aufgaben zu erleichtern.
Allerdings ist ihre Verwendung oft rechtswidrig: Sobald personenbezogene Daten eingegeben werden, handelt es sich um ein Datenleck. Denn alle Daten, die ein solches Online-KI-Tool erhält, werden gespeichert und zum Trainieren seines Modells verwendet. „Bei einem Datenleck handelt es sich um den unbefugten oder absichtlichen Zugriff auf personenbezogene Daten“, sagt die niederländische Datenschutzbehörde (AP).