Gettyimages 1915753097 E1707912619403

chatgpt hat große Organisationen wegen Datenschutzbedenken verunsichert. Senden Sie eine E-Mail an Aslanda/Anadolu über Getty Images

Der revolutionäre Bot ChatGPT von OpenAI verspricht unsägliche Wunder für die Produktivität der Mitarbeiter – aber er ist auch mit vielen Datenschutzproblemen konfrontiert. Für die jüngste Organisation in einer wachsenden Liste betroffener Gruppen wurde dieser Kompromiss zu schwierig, um ihn zu rechtfertigen.

Das britische Ministerium für Arbeit und Renten (DWP), das für die Sozial- und Rentenzahlungen zuständig ist 20 Millionen Britenhat kürzlich seine „Richtlinien zur akzeptablen Nutzung”-Rahmen, um seinen Mitarbeitern die Nutzung öffentlich zugänglicher KI-Anwendungen zu verbieten – und die Abteilung ließ ChatGPT namentlich fallen.

„Benutzer dürfen nicht versuchen, auf öffentliche KI-Anwendungen (wie ChatGPT) zuzugreifen, wenn sie DWP-Geschäfte tätigen oder auf DWP-zugelassenen Geräten verwenden“, heißt es nun in der Anleitung.

Im Dezember gab die DWP bekannt, dass sie eine verwendet „Test-and-Learn-Ansatz“ zur Anwendung generativer KI bei seinen Mitarbeitern. Die Abteilung untersucht, wie KI Mitarbeitern bei der Erledigung von Schreibaufgaben helfen und Arbeitscoaches bei Kunden in Jobcentern unterstützen könnte.

Das DWP testet ein internes Tool auf Basis von Microsoft Copilot, einem digitalen Assistenten, um bei der Automatisierung von Aufgaben zu helfen. Welt des öffentlichen Dienstes gemeldet.

Die Bedenken hinsichtlich des Datenschutzes bei ChatGPT nehmen zu

Es ist derzeit unklar, warum das DWP dazu übergegangen ist, ChatGPT von OpenAI abzuschaffen und mit internen Tools zu experimentieren, aber es ist wahrscheinlich, dass die Abteilung das jüngste Gremium ist, das entschieden hat, dass Datenschutzbedenken rund um das LLM zu groß sind, um ignoriert zu werden.

Siehe auch  „KI und ChatGPT sind potenzielle Game-Changer im Gastgewerbe“

Ein Vertreter der DWP antwortete nicht sofort Fortune's Bitte um Kommentar.

ChatGPT sammelt riesige Mengen an Daten und Informationen, die von Benutzern übermittelt werden, um seine Schulung zu unterstützen, und es besteht die Befürchtung, dass Informationen, insbesondere persönliche Daten der Benutzer, an externe Parteien weitergegeben werden.

Diese Bedenken führten dazu, dass die italienischen Regulierungsbehörden OpenAI im Januar beschuldigten, gegen die Datenschutzbestimmungen der EU verstoßen zu haben.

Die italienische Datenschutzbehörde Garante hatte herausgefunden, dass der Chatbot Nachrichten und Zahlungsinformationen der Benutzer offengelegt hatte.

Damals sagte ein Sprecher von OpenAI dem Associated Press: „Wir glauben, dass unsere Praktiken mit der DSGVO und anderen Datenschutzgesetzen im Einklang stehen, und wir unternehmen zusätzliche Schritte, um die Daten und die Privatsphäre der Menschen zu schützen“, heißt es in einer Unternehmenserklärung.

„Wir wollen, dass unsere KI etwas über die Welt lernt, nicht über Privatpersonen. Wir arbeiten aktiv daran, personenbezogene Daten zu reduzieren, indem wir unsere Systeme wie ChatGPT trainieren, das auch Anfragen nach privaten oder sensiblen Informationen über Personen ablehnt.“

Mehrere große Unternehmen haben Schritte unternommen, um die Verwendung von ChatGPT in ihren Organisationen einzuschränken oder zu verbieten, nachdem der Chatbot letztes Jahr immer beliebter wurde.

apple hat einigen Mitarbeitern die Nutzung von ChatGPT untersagt, weil sie befürchteten, sie würden vertrauliche Informationen preisgeben. Die Gruppe trat in die Fußstapfen der Technologiekonzerne Amazon und der Wall-Street-Banken JPMorgan und Bank of America, indem sie Mitarbeiter daran hinderte, die Technologie zu nutzen.

OpenAI versucht, Unternehmen mit einer Enterprise-Version anzusprechen, was einige Bedenken hinsichtlich Daten und Datenschutz zerstreut.

Ein Vertreter von OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme.

Siehe auch  Künstliche Intelligenz: einige Gedanken, bevor ChatGPT uns ersetzt – Artikel – 05.07.2023 – Meinungen

Durcheinandergebrachte KI-Richtlinien

Die britische Regierung veröffentlichte eine Generatives KI-Framework für seine 520.000 Beamten im vergangenen Jahr. Das Rahmenwerk skizziert 10 Schlüsselprinzipien, die Mitarbeiter beim Einsatz generativer KI einhalten sollten, und umfasst Ethik, Gesetze und Verständnis für die Grenzen der Technologie.

Wenn es jedoch um eine umfassendere Politik geht, hat sich das Vereinigte Königreich bei der Regulierung der Technologie stark auf die zurückhaltende Seite verlassen, insbesondere im Vergleich zur EU.

Das Vereinigte Königreich befürwortet einen eher unkomplizierten Ansatz bei der KI-Regulierung, der es den Regulierungsbehörden einzelner Bereiche überlässt, ihre Rahmenbedingungen festzulegen, und schließt eine Änderung der Gesetze des Landes aus, um dem Risiko von KI Rechnung zu tragen.

Es unterscheidet sich erheblich vom wegweisenden KI-Gesetz der EU, dessen Grundzüge Anfang Februar vereinbart und als hartnäckig beschrieben wurden.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein