• Adobe hat kürzlich eine Do’s and Don’ts-Liste für den Einsatz generativer KI-Apps im Unternehmen veröffentlicht.
  • Es verbietet die Verwendung privater E-Mail-Konten und Firmenkreditkarten bei der Anmeldung für die Apps.
  • Adobe hat eine interne Arbeitsgruppe namens AI@Adobe ins Leben gerufen, um die Einführung von KI-Apps im Unternehmen zu unterstützen.

Adobe-Mitarbeiter können keine privaten E-Mail-Konten oder Firmenkreditkarten verwenden, wenn sie sich für KI-Tools wie chatgpt anmelden.

Sie sollten außerdem verhindern, dass KI-Apps ihre Daten für maschinelles Lernen verwenden, und niemals persönliche oder nicht öffentliche Adobe-Daten, einschließlich Finanzinformationen, weitergeben.

Laut einer unternehmensweiten E-Mail von Chief Information Officer Cindy Stoddard sind diese Einschränkungen Teil der internen Richtlinien von Adobe für den Einsatz generativer KI-Tools am Arbeitsplatz. Insider erhielt eine Kopie.

„Wir fördern intern die verantwortungsvolle und ethische Erforschung der generativen Al-Technologie. Wir glauben, dass dies den Mitarbeitern ermöglichen wird, mehr über ihre Fähigkeiten zu erfahren, während wir untersuchen, wie sie unsere Arbeitsweise verändern wird“, schrieb Stoddard in der E-Mail vom 20. Juni. „Als Mitarbeiter liegt es in Ihrer Verantwortung, die Daten von Adobe und unseren Kunden zu schützen und generative KI nicht auf eine Weise zu nutzen, die das Geschäft, die Kunden oder die Mitarbeiter von Adobe schädigt oder gefährdet.“

Die E-Mail ist bemerkenswert, weil Adobe einer der größten Anbieter von Software im Internet ist und seinen Kunden zunehmend eigene generative KI-Produkte anbietet. Während das Unternehmen diese neue Technologie nach außen hin begrüßt, bietet es eine zusätzliche Sicherheitsebene gegenüber der internen Verwendung anderer generativer KI-Tools.

Andere Technologieunternehmen verfolgen einen ähnlichen Ansatz. Amazon warnte seine Mitarbeiter, ChatGPT bei der Arbeit mit Bedacht zu nutzen, und einige Manager erhalten Echtzeitwarnungen, wenn die App auf dem Arbeitscomputer eines Mitarbeiters verwendet wird. apple-restricts-use-of-chatgpt-joining-other-companies-wary-of-leaks-d44d7d34″ target=”_blank” rel=”noopener nofollow” data-analytics-product-module=”body_link”>Apfel, google-one-ais-biggest-backers-warns-own-staff-about-chatbots-2023-06-15/” target=”_blank” rel=”noopener nofollow” data-analytics-product-module=”body_link”>AlphabetUnd Samsung haben auch die Nutzung generativer KI-Tools durch die Mitarbeiter eingeschränkt.

Siehe auch  So verdienen Sie Geld mit benutzerdefinierten GPTs und ChatGPT

Ein Adobe-Sprecher lehnte es ab, Stoddards E-Mail zu kommentieren.

Adobe möchte KI-Tools am Arbeitsplatz nicht gänzlich verbieten. Stoddard sagte in der internen E-Mail, dass generative KI „die menschliche Kreativität steigern, nicht ersetzen“ kann. Während sie die Nutzung von KI-Diensten von Drittanbietern wie ChatGPT oder der Azure OpenAI API von Microsoft förderte, teilte sie auch die folgende Liste mit Verhaltensregeln für Mitarbeiter mit:

DOS

    • Finden Sie zugelassene Software im internen Workspace Store von Adobe und machen Sie sich mit den zugehörigen Richtlinien zur Datenklassifizierung und -verarbeitung vertraut.
    • Lesen Sie unten die geltenden Richtlinien und Richtlinien von Adobe und wenden Sie sich an Ihren Adobe-Rechtsvertreter, wenn Sie eine Produktintegration erstellen.
    • Deaktivieren Sie die Verwendung Ihrer Daten für maschinelles Lerntraining, sofern diese Einstellung verfügbar ist.
    • Überprüfen Sie die Richtigkeit der Ergebnisse und wenden Sie Ihr Fachwissen und Ihr Urteilsvermögen an, um zu entscheiden, wie und ob Sie die Ergebnisse in Ihrer Arbeit verwenden möchten.
    • Wenden Sie sich an Adobe Security, wenn Sie versehentlich interne, eingeschränkte oder vertrauliche Daten von Adobe in eine nicht genehmigte Drittanbieter-App oder einen nicht genehmigten Drittanbieter-Dienst eingeben.

Verbote

    • Geben Sie in Ihrer Eingabeaufforderung/Anfrage niemals persönliche Informationen oder nicht öffentliche Adobe-Daten preis oder laden Sie sie hoch, wenn Sie Apps und Dienste erkunden, die nicht für generative AI für andere Datenklassifizierungen zugelassen sind.
    • Verwenden Sie kein persönliches E-Mail-Konto, um sich bei Tools für arbeitsbezogene Aufgaben anzumelden.
    • Kaufen Sie keine berufsbezogene Software und Dienste mit Ihrer Firmenkarte und rechnen Sie diese Käufe nicht mit einer privaten Kreditkarte ab, um eine Rückerstattung zu erhalten.
    • Nehmen Sie keine Ausgaben und verwenden Sie sie wörtlich; Sie können sie überprüfen, motivieren und bei Bedarf ergänzen.
    • Verstoßen Sie nicht gegen die Nutzungsbedingungen für generative KI-Technologie.
Siehe auch  „Aufgeregt“ und „Angst“, während Experten versuchen, ChatGPT und medizinische KI zu zähmen

Neue interne KI-Arbeitsgruppe

Stoddard schrieb, dass Adobe kürzlich eine interne KI-Arbeitsgruppe namens AI@Adobe ins Leben gerufen habe, um das Unternehmen bei der „internen Einführung von Gen-KI für Mitarbeiterproduktivität und kreative Aufgaben“ zu unterstützen. Die neue KI-Arbeitsgruppe werde „Anwendungsfälle überprüfen und verstehen und Prinzipien und Richtlinien für das Experimentieren und den Einsatz dieser Technologien definieren“, schrieb Stoddard.

Darüber hinaus stellte Stoddard Beispiele für verschiedene Datenklassifizierungen vor, die Mitarbeiter bei der Verwendung von KI-Apps vom Typ ChatGPT befolgen sollten. Hier sind die 4 Datentypen:

1) Eingeschränkte Daten haben große geschäftliche Auswirkungen: gesetzlich geschützte Daten, wesentliche Finanzdaten, geistiges Eigentum, Passwörter und Anmeldeinformationen

Fordern Sie eine Large Language Model (LLM)-Implementierung wie ChatGPT nicht auf, einen Satz sensibler Finanz- oder Kundendaten zusammenzufassen, indem Sie diese als Eingabe in einer Frage oder einem anderen offenen Textfeld bereitstellen, das durch generative KI unterstützt wird.“

2) Vertrauliche Daten haben mittlere geschäftliche Auswirkungen: Personenbezogene Daten (Gehalt, Sozialleistungen), Daten mit wichtigen Einschränkungen wie Quellcode, Kundendateien, Produkt-Roadmaps und Adobe-Finanzinformationen

„Bitten Sie einen LLM nicht, Ihren Quellcode zu überprüfen und einen bestimmten Fehler zu finden.“

3) Interne Daten haben mäßige geschäftliche Auswirkungen (Hinweis: Der Standardtyp nicht klassifizierter Daten ist intern): Betriebsplanung, Zusammenarbeit und interne Kommunikation sowie Support-Center-Artikel

Bitten Sie einen LLM nicht, eine E-Mail auf der Grundlage interner Informationen aus Besprechungsnotizen zu schreiben.“

4) Öffentliche Daten: Informationen, die offen verfügbar sind

Tun Sie Folgendes: Fragen Sie einen LLM, wie ein häufiges technisches Problem gelöst werden kann. Bitten Sie einen LLM, eine geschäftliche E-Mail ohne Namen oder andere identifizierende Informationen zu verfassen.

Nicht: Verwenden Sie Informationen und LLM in einem Geschäftsprojekt, ohne deren Richtigkeit zu überprüfen.“

Arbeiten Sie bei Adobe? Hast du einen Tipp?

Kontaktieren Sie den Reporter Eugene Kim über die verschlüsselten Messaging-Apps Signal oder Telegram (+1-650-942-3061) oder E-Mail ([email protected]). Melden Sie sich über ein arbeitsfreies Gerät an. Schauen Sie sich den Quellenführer von Insider an Weitere Tipps zum sicheren Teilen von Informationen finden Sie hier.

4.5/5 - (55 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein