LONDON/WASHINGTON, 11. August (Reuters) – Viele Arbeitnehmer in den USA wenden sich an chatgpt, um bei grundlegenden Aufgaben zu helfen, wie eine Umfrage von Reuters/Ipsos ergab, und das trotz der Befürchtungen, die Arbeitgeber wie Microsoft und google dazu veranlasst haben, die Nutzung einzuschränken.
Unternehmen auf der ganzen Welt überlegen, wie sie ChatGPT am besten nutzen können, ein Chatbot-Programm, das generative KI nutzt, um Gespräche mit Benutzern zu führen und unzählige Eingaben zu beantworten. Sicherheitsfirmen und -unternehmen haben jedoch Bedenken geäußert, dass dies zu Lecks in Bezug auf geistiges Eigentum und Strategien führen könnte.
Zu den anekdotischen Beispielen von Menschen, die ChatGPT zur Unterstützung ihrer täglichen Arbeit nutzen, gehören das Verfassen von E-Mails, das Zusammenfassen von Dokumenten und das Durchführen vorläufiger Recherchen.
Etwa 28 % der Befragten der Online-Umfrage zu künstlicher Intelligenz (KI) zwischen dem 11. und 17. Juli gaben an, dass sie ChatGPT regelmäßig am Arbeitsplatz nutzen, während nur 22 % angaben, dass ihre Arbeitgeber solche externen Tools ausdrücklich erlaubt hätten.
Die Reuters/Ipsos-Umfrage unter 2.625 Erwachsenen in den Vereinigten Staaten ergab ein Glaubwürdigkeitsintervall, ein Maß für die Präzision, von etwa 2 Prozentpunkten.
Etwa 10 % der Befragten gaben an, dass ihre Vorgesetzten externe KI-Tools ausdrücklich verboten hätten, während etwa 25 % nicht wussten, ob ihr Unternehmen den Einsatz der Technologie erlaubte.
ChatGPT wurde nach seiner Einführung im November zur am schnellsten wachsenden App in der Geschichte. Es hat sowohl für Aufregung als auch für Besorgnis gesorgt und seinen Entwickler OpenAI in Konflikt mit den Regulierungsbehörden gebracht, insbesondere in Europa, wo die Massendatenerfassung des Unternehmens Kritik von Datenschutzbeauftragten hervorgerufen hat.
Menschliche Gutachter anderer Unternehmen können jeden der generierten Chats lesen, und Forscher fanden heraus, dass eine ähnliche KI mit künstlicher Intelligenz Daten reproduzieren könnte, die sie während des Trainings aufgenommen hatte, was ein potenzielles Risiko für proprietäre Informationen darstellt.
„Die Leute verstehen nicht, wie die Daten verwendet werden, wenn sie generative KI-Dienste nutzen“, sagte Ben King, Vizepräsident für Kundenvertrauen beim Unternehmenssicherheitsunternehmen Okta (OKTA.O).
„Für Unternehmen ist dies von entscheidender Bedeutung, da Benutzer mit vielen KIs keinen Vertrag haben – da es sich um einen kostenlosen Dienst handelt – Unternehmen müssen also nicht das Risiko eingehen, ihren üblichen Bewertungsprozess durchlaufen zu müssen“, sagte King.
OpenAI lehnte eine Stellungnahme ab, als es zu den Auswirkungen der Nutzung von ChatGPT durch einzelne Mitarbeiter befragt wurde, hob jedoch einen aktuellen Unternehmensblogbeitrag hervor, in dem Unternehmenspartnern versichert wurde, dass ihre Daten nicht zur weiteren Schulung des Chatbots verwendet würden, es sei denn, sie erteilten ihre ausdrückliche Erlaubnis.
Wenn Nutzer Bard von Google verwenden, werden Daten wie Text, Standort und andere Nutzungsinformationen erfasst. Das Unternehmen ermöglicht Benutzern, frühere Aktivitäten aus ihren Konten zu löschen und die Entfernung von in die KI eingespeisten Inhalten zu verlangen. Das zu Alphabet gehörende Unternehmen (GOOGL.O) lehnte eine Stellungnahme ab, als es um weitere Einzelheiten gebeten wurde.
Microsoft (MSFT.O) reagierte nicht sofort auf eine Bitte um Stellungnahme.
„HARMLOSE AUFGABEN“
Ein in den USA ansässiger Mitarbeiter von Tinder sagte, dass Mitarbeiter der Dating-App ChatGPT für „harmlose Aufgaben“ wie das Schreiben von E-Mails nutzten, obwohl das Unternehmen dies offiziell nicht erlaubte.
„Es handelt sich um normale E-Mails. Sehr bedeutungslos, wie das Verfassen lustiger Kalendereinladungen für Teamevents, Abschieds-E-Mails, wenn jemand geht … Wir nutzen sie auch für allgemeine Recherchen“, sagte der Mitarbeiter, der namentlich nicht genannt werden wollte, da dies nicht der Fall war berechtigt, mit Reportern zu sprechen.
Der Mitarbeiter sagte, dass es bei Tinder eine „keine ChatGPT-Regel“ gebe, die Mitarbeiter diese jedoch immer noch auf eine „allgemeine Art und Weise verwenden, die nichts darüber verrät, dass wir bei Tinder sind“.
Reuters konnte nicht unabhängig bestätigen, wie Mitarbeiter bei Tinder ChatGPT nutzten. Tinder sagte, es biete „den Mitarbeitern regelmäßig Anleitungen zu den besten Sicherheits- und Datenpraktiken“.
Im Mai verbot Samsung Electronics Mitarbeitern weltweit die Nutzung von ChatGPT und ähnlichen KI-Tools, nachdem festgestellt wurde, dass ein Mitarbeiter sensiblen Code auf die Plattform hochgeladen hatte.
„Wir prüfen Maßnahmen zur Schaffung einer sicheren Umgebung für die generative KI-Nutzung, die die Produktivität und Effizienz der Mitarbeiter steigert“, sagte Samsung in einer Erklärung vom 3. August.
„Bis diese Maßnahmen jedoch umgesetzt sind, schränken wir den Einsatz generativer KI über Unternehmensgeräte vorübergehend ein.“
Reuters berichtete im Juni, dass Alphabet seine Mitarbeiter davor gewarnt habe, wie sie Chatbots, darunter Googles Bard, nutzen, während es das Programm gleichzeitig weltweit vermarktet.
Google sagte, Bard könne zwar unerwünschte Codevorschläge machen, es helfe aber Programmierern. Es hieß auch, man wolle die Grenzen seiner Technologie transparent machen.
Pauschale Verbote
Einige Unternehmen teilten Reuters mit, dass sie ChatGPT und ähnliche Plattformen nutzen und dabei die Sicherheit im Auge behalten.
„Wir haben damit begonnen, zu testen und herauszufinden, wie KI die betriebliche Effektivität verbessern kann“, sagte ein Coca-Cola-Sprecher in Atlanta, Georgia, und fügte hinzu, dass die Daten innerhalb der Firewall bleiben.
„Intern haben wir kürzlich unsere Unternehmensversion von Coca-Cola ChatGPT für Produktivität eingeführt“, sagte der Sprecher und fügte hinzu, dass Coca-Cola den Einsatz von KI plant, um die Effektivität und Produktivität seiner Teams zu verbessern.
Dawn Allen, Chief Financial Officer von Tate & Lyle (TATE.L), sagte Reuters unterdessen, dass der globale Zutatenhersteller ChatGPT teste und „einen Weg gefunden habe, es auf sichere Weise zu nutzen“.
„Wir lassen verschiedene Teams in einer Reihe von Experimenten entscheiden, wie sie es nutzen wollen. Sollten wir es in der Investor Relations nutzen? Sollen wir es im Wissensmanagement nutzen? Wie können wir es nutzen, um Aufgaben effizienter auszuführen?“
Einige Mitarbeiter geben an, dass sie auf ihren Firmencomputern überhaupt nicht auf die Plattform zugreifen können.
„Es ist im Büronetzwerk völlig verboten, als würde es nicht funktionieren“, sagte ein Mitarbeiter von Procter & Gamble (PG.N), der anonym bleiben wollte, da er nicht berechtigt war, mit der Presse zu sprechen.
P&G lehnte eine Stellungnahme ab. Reuters konnte nicht unabhängig bestätigen, ob Mitarbeiter von P&G ChatGPT nicht nutzen konnten.
Paul Lewis, Chief Information Security Officer beim Cybersicherheitsunternehmen Nominet, sagte, dass die Unternehmen zu Recht vorsichtig seien.
„Jeder profitiert von dieser erweiterten Fähigkeit, aber die Informationen sind nicht völlig sicher und können manipuliert werden“, sagte er und verwies auf „böswillige Eingabeaufforderungen“, mit denen KI-Chatbots dazu gebracht werden könnten, Informationen preiszugeben.
„Ein pauschales Verbot ist noch nicht gerechtfertigt, aber wir müssen vorsichtig vorgehen“, sagte Lewis.
Berichterstattung von Richa Naidu, Martin Coulter und Jason Lange; Bearbeitung durch Alexander Smith
Unsere Standards: Die Thomson Reuters Trust-Grundsätze.