[ad_1]

chatgpt-privacy-governance.jpg“ alt=“ChatGPT“ data-style=“border-width:0px;width:820px;“/>

Seien Sie vorsichtig, was Sie in KI-Engines stecken, denn es könnte an anderer Stelle ausgespuckt werden. Bild: Shutterstock

Datenschutzbudgets werden gekürzt, selbst wenn Arbeitnehmer sensible Daten über Mitarbeiter, Kunden, interne Prozesse und nicht öffentliche Geschäftsdetails in Systeme der generativen KI (genAI) einspeisen – wobei neue Daten die Risiken verdeutlichen, die dazu geführt haben, dass die Technologie von einem Viertel der ANZ-Unternehmen verboten wurde.

Ganze 53 Prozent der Befragten gehen zum Cisco Datenschutz-Benchmark-Studie 2024 – das über 2.600 Sicherheitsexperten in Australien und 11 anderen Ländern befragte – gab an, dass sie bei der Gestaltung von Abfragen an ChatGPT und andere GenAI-Engines interne Prozessdetails verwendet haben.

Rund ein Drittel der Befragten gab an, dass sie dasselbe mit Mitarbeiterdaten, nicht öffentlichem Unternehmensmaterial und Kundeninformationen getan hätten.

Dies hat zu einer wachsenden Privatsphäre und Sicherheit geführt Sorge weil genAI sich kontinuierlich anhand des Inhalts von Benutzeraufforderungen trainiert – und diese Informationen möglicherweise an andere weitergibt.

Laut Cisco glauben 77 Prozent der Befragten, dass in genAI-Systeme eingegebene Daten öffentlich oder mit Wettbewerbern geteilt werden könnten. 69 Prozent befürchten, dass die Nutzung von genAI die gesetzlichen und geistigen Eigentumsrechte ihrer Organisation verletzen könnte.

Dies hatte dazu geführt, dass mehr als die Hälfte der befragten Organisationen die Art der Daten, die in genAI-Systeme eingegeben werden können, beschränkten, die Art der genAI-Tools, die am Arbeitsplatz verwendet werden können, einschränkten oder die Tools ganz verbot, wie es 27 Prozent der von Cisco befragten Unternehmen getan hatten .

Das ist ein ernüchternder Kontrast zur weit verbreiteten Begeisterung für GenAI-Tools – wie das Sicherheitsunternehmen Indusface kürzlich in einem Bericht feststellte Umfrage von über 2.000 britischen Unternehmen werden für Aufgaben wie das Verfassen von Berichten, Übersetzungen, Recherchen, Kunden-E-Mails und interne E-Mails verwendet.

Siehe auch  OpenAI DALL·E 3 ist da, integriert mit ChatGPT, der Bilderzeugungseffekt ist erstaunlich – Sina Hong Kong

Solche Anwendungsfälle mögen für Mitarbeiter wie klare Produktivitätssteigerungen erscheinen, aber der Gründer und Präsident von Indusface, Venky Sundar, warnte, dass sie leicht zu etwas ganz anderem werden können.

„Wenn Sie proprietäre Informationen in ChatGPT teilen, besteht immer das Risiko, dass diese Daten für die breite Öffentlichkeit zugänglich sind“, sagte er und wies darauf hin, dass 55 Prozent der befragten Unternehmen der Zusammenarbeit mit einem anderen Unternehmen, das genAI-Tools an seinem Arbeitsplatz verwendet, nicht vertrauen .

Da 39 Prozent der Werbe-, 38 Prozent der Rechts- und 28 Prozent der Regierungs- und Verteidigungsunternehmen angaben, ChatGPT zu nutzen, warnte Sundar vor den Risiken einer Gefährdung und Reputationsschädigung durch unbeabsichtigte Datenlecks.

„Sie könnten Ihr geistiges Eigentum verlieren“, erklärte er, „fragen Sie ChatGPT also niemals nach Dokumentation zu proprietären Dokumenten, einschließlich Produkt-Roadmaps, Patenten usw. … Der Reifegrad des Umgangs mit den Daten und der Besitz von Vertrauen sind noch nicht genau definiert und.“ Unternehmen haben Recht, wenn sie ihr nicht vollständig vertrauen.“

Solche Warnungen kommen zu spät für den australischen öffentlichen Dienst, der sein Engagement für die Digitalisierung von Abläufen verdoppelt und im Januar nach den großen Unternehmen AGL, Bupa und NAB einen sechsmonatigen Test der 365 Copilot-Produktivitätstools von Microsoft startete, so Premierminister Anthony Albanese sagtewird es den APS-Mitarbeitern ermöglichen, „neue Wege zur Innovation und Steigerung der Produktivität auszuprobieren“.

Verschärfung eines Datenschutzdefizits

Angesichts der Befürchtungen, dass der Gesetzgeber nicht schnell genug vorgeht, um die Sicherheit der Technologie zu regulieren, stellt der weit verbreitete und unkontrollierte Einsatz von GenAI – das in alle Arten von geschäftlichen und persönlichen Technologien integriert wird – die noch unausgereiften Datenschutzpraktiken australischer Unternehmen in Frage das bedeutendste Datenschutzgesetz Änderungen seit 2014.

Siehe auch  Wie man ChatGPT als Student nicht nutzt

Trotz der möglichen Auswirkungen dieser drohenden Änderungen deuten neue Zahlen auf eine klaffende Lücke im Datenschutzbewusstsein und in der Datenschutzpraxis hin – nur 39 Prozent der ozeanischen Befragten haben an ISACAs teilgenommen Datenschutz in der Praxis 2024 In einer Umfrage wurden die Datenschutzverpflichtungen ihrer Organisation als „unkompliziert“ bezeichnet und nur 44 Prozent sind zuversichtlich, die Datenschutzverpflichtungen zu erfüllen.

„Jede Organisation in ANZ und auf der ganzen Welt hat die Verantwortung, die Privatsphäre ihrer Kunden- und Stakeholder-Daten zu schützen“, sagte Jo Stewart-Rattray, ISACA-Botschafter in Ozeanien notiert Da Regierungen „die Gesetzgebung aktualisieren, um bewährte Verfahren sicherzustellen, ist es von größter Bedeutung, dass Organisationen verstehen, was von ihnen erwartet wird, um eine wirksame Datenschutzrichtlinie zu entwickeln und diese entsprechend umzusetzen.“

Jo Stewart-Rattray ist Vizepräsidentin für Community Boards bei ACS, dem Herausgeber von Informationszeitalter.

Im Jahr 2024 wird Nandita Rao Narla, Leiterin für technischen Datenschutz bei DoorDash notiert Als Reaktion auf die ISACA-Umfrage wird „effektiver Datenschutz“ zwangsläufig die Bewältigung von KI-Risiken beinhalten, wobei Datenschutzexperten „wahrscheinlich“ tätig sein werden [to] sehen, dass ihre Rollen um ein verantwortungsvolles KI-Management erweitert werden“, da sie angewiesen sind, „nachhaltige KI-Governance-Programme aufzubauen und Schutzmaßnahmen für KI-Anwendungsfälle zu erweitern“.

Aber auch als CIOs ihre Ausgaben erhöhen In Bezug auf KI-Systeme und GenAI-Tools gaben 51 Prozent der Datenschutzexperten an, dass sie mit einer Kürzung ihres Budgets rechnen – weit mehr als vor einem Jahr, als nur 12 Prozent mit Budgetkürzungen rechneten.

Die Vereinbarkeit dieser beiden konkurrierenden Zwänge wird ein zentrales Thema sein, da genAI im Jahr 2024 immer leistungsfähiger wird. Das Wissen darüber, wie dies zu bewerkstelligen ist, entwickelt sich jedoch noch weiter – wobei das Australian Cyber ​​Security Centre die neueste Organisation ist, die es zu bieten hat Orientierungshilfe über das Management von KI-Risiken.

Siehe auch  ChatGPT gibt Cardano-Preisprognose für 2024 plus MK-Token-Analyse

„Datenschutz ist untrennbar mit dem Vertrauen und der Loyalität der Kunden verbunden“, bemerkte Cisco Vice President und Chief Privacy Officer Harvey Jang. „Sie suchen nach stichhaltigen Beweisen dafür, dass man der Organisation vertrauen kann …“ Dies gilt umso mehr im Zeitalter der KI, wo bessere Investitionen in den Datenschutz Unternehmen in die Lage versetzen, KI ethisch und verantwortungsvoll einzusetzen.“

[ad_2]

5/5 - (386 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein