Neu Sie können jetzt Artikel im Insurance Journal anhören!

Laut einer Umfrage von Reuters/Ipsos wenden sich viele Arbeitnehmer in den USA an chatgpt, um bei grundlegenden Aufgaben zu helfen, obwohl Befürchtungen Arbeitgeber wie Microsoft und google dazu veranlasst haben, die Nutzung einzuschränken.

Unternehmen auf der ganzen Welt überlegen, wie sie ChatGPT am besten nutzen können, ein Chatbot-Programm, das generative KI nutzt, um Gespräche mit Benutzern zu führen und unzählige Eingaben zu beantworten. Sicherheitsfirmen und -unternehmen haben jedoch Bedenken geäußert, dass dies zu Lecks in Bezug auf geistiges Eigentum und Strategien führen könnte.

Zu den anekdotischen Beispielen von Menschen, die ChatGPT zur Unterstützung ihrer täglichen Arbeit nutzen, gehören das Verfassen von E-Mails, das Zusammenfassen von Dokumenten und das Durchführen vorläufiger Recherchen.

Etwa 28 % der Befragten der Online-Umfrage zu künstlicher Intelligenz (KI) zwischen dem 11. und 17. Juli gaben an, dass sie ChatGPT regelmäßig am Arbeitsplatz nutzen, während nur 22 % angaben, dass ihre Arbeitgeber solche externen Tools ausdrücklich erlaubt hätten.

Die Reuters/Ipsos-Umfrage unter 2.625 Erwachsenen in den Vereinigten Staaten ergab ein Glaubwürdigkeitsintervall, ein Maß für die Präzision, von etwa 2 Prozentpunkten.

Etwa 10 % der Befragten gaben an, dass ihre Vorgesetzten externe KI-Tools ausdrücklich verboten hätten, während etwa 25 % nicht wussten, ob ihr Unternehmen den Einsatz der Technologie erlaubte.

ChatGPT wurde nach seiner Einführung im November zur am schnellsten wachsenden App in der Geschichte. Es hat sowohl für Aufregung als auch für Besorgnis gesorgt und seinen Entwickler OpenAI in Konflikt mit den Regulierungsbehörden gebracht, insbesondere in Europa, wo die Massendatenerfassung des Unternehmens Kritik von Datenschutzbeauftragten hervorgerufen hat.

Siehe auch  Warum ChatGPT keine großartigen Predigten produzieren kann

Menschliche Gutachter anderer Unternehmen können jeden der generierten Chats lesen, und Forscher fanden heraus, dass eine ähnliche KI mit künstlicher Intelligenz Daten reproduzieren könnte, die sie während des Trainings aufgenommen hatte, was ein potenzielles Risiko für proprietäre Informationen darstellt.

„Die Leute verstehen nicht, wie die Daten verwendet werden, wenn sie generative KI-Dienste nutzen“, sagte Ben King, Vizepräsident für Kundenvertrauen beim Unternehmenssicherheitsunternehmen Okta.

„Für Unternehmen ist dies von entscheidender Bedeutung, da Benutzer mit vielen KIs keinen Vertrag haben – da es sich um einen kostenlosen Dienst handelt –, sodass Unternehmen nicht dem Risiko ausgesetzt sind, ihren üblichen Bewertungsprozess durchlaufen zu müssen“, sagte King.

OpenAI lehnte eine Stellungnahme ab, als es zu den Auswirkungen der Nutzung von ChatGPT durch einzelne Mitarbeiter befragt wurde, hob jedoch einen aktuellen Unternehmensblogbeitrag hervor, in dem Unternehmenspartnern versichert wurde, dass ihre Daten nicht zur weiteren Schulung des Chatbots verwendet würden, es sei denn, sie erteilten ihre ausdrückliche Erlaubnis.

Wenn Nutzer Bard von Google verwenden, werden Daten wie Text, Standort und andere Nutzungsinformationen erfasst. Das Unternehmen ermöglicht Benutzern, frühere Aktivitäten aus ihren Konten zu löschen und die Entfernung von in die KI eingespeisten Inhalten zu verlangen. Das zu Alphabet gehörende Google lehnte eine Stellungnahme ab, als es um weitere Einzelheiten gebeten wurde.

Microsoft reagierte nicht sofort auf eine Anfrage nach einem Kommentar.

„HARMLOSE AUFGABEN“

Ein in den USA ansässiger Mitarbeiter von Tinder sagte, dass Mitarbeiter der Dating-App ChatGPT für „harmlose Aufgaben“ wie das Schreiben von E-Mails nutzten, obwohl das Unternehmen dies offiziell nicht erlaubte.

„Es sind normale E-Mails. „Sehr bedeutungslos, wie lustige Kalendereinladungen für Teamevents zu erstellen, Abschieds-E-Mails, wenn jemand geht … Wir nutzen es auch für allgemeine Recherchen“, sagte der Mitarbeiter, der namentlich nicht genannt werden wollte, weil er nicht berechtigt war, mit Reportern zu sprechen.

Siehe auch  ChatGPT-Erfinder Sam Altman sagt, superintelligente KI sollte wie Kernenergie reguliert werden

Der Mitarbeiter sagte, bei Tinder gebe es „keine ChatGPT-Regel“, die Mitarbeiter würden diese jedoch immer noch „allgemein nutzen, sodass nichts darüber verrät, dass wir bei Tinder sind“.

Reuters konnte nicht unabhängig bestätigen, wie Mitarbeiter bei Tinder ChatGPT nutzten. Tinder sagte, es biete „den Mitarbeitern regelmäßige Anleitungen zu den besten Sicherheits- und Datenpraktiken“.

Im Mai verbot Samsung Electronics Mitarbeitern weltweit die Nutzung von ChatGPT und ähnlichen KI-Tools, nachdem festgestellt wurde, dass ein Mitarbeiter sensiblen Code auf die Plattform hochgeladen hatte.

„Wir prüfen Maßnahmen, um eine sichere Umgebung für die generative KI-Nutzung zu schaffen, die die Produktivität und Effizienz der Mitarbeiter steigert“, sagte Samsung in einer Erklärung vom 3. August.

„Bis diese Maßnahmen jedoch umgesetzt sind, schränken wir den Einsatz generativer KI über Unternehmensgeräte vorübergehend ein.“

Reuters berichtete im Juni, dass Alphabet seine Mitarbeiter davor gewarnt habe, wie sie Chatbots, darunter Googles Bard, nutzen, während es das Programm gleichzeitig weltweit vermarktet.

Google sagte, Bard könne zwar unerwünschte Codevorschläge machen, es helfe aber Programmierern. Es hieß auch, man wolle die Grenzen seiner Technologie transparent machen.

Pauschale Verbote

Einige Unternehmen teilten Reuters mit, dass sie ChatGPT und ähnliche Plattformen nutzen und dabei die Sicherheit im Auge behalten.

„Wir haben damit begonnen, zu testen und zu lernen, wie KI die betriebliche Effektivität verbessern kann“, sagte ein Coca-Cola-Sprecher in Atlanta, Georgia, und fügte hinzu, dass die Daten innerhalb der Firewall bleiben.

„Intern haben wir kürzlich unsere Unternehmensversion von Coca-Cola ChatGPT für Produktivität eingeführt“, sagte der Sprecher und fügte hinzu, dass Coca-Cola den Einsatz von KI plant, um die Effektivität und Produktivität seiner Teams zu verbessern.

Siehe auch  China fördert die Entwicklung von ChatGPT-ähnlichen KI-Modellen für große Sprachen

Dawn Allen, Chief Financial Officer von Tate & Lyle, sagte Reuters unterdessen, dass der globale Zutatenhersteller ChatGPT teste und „einen Weg gefunden habe, es auf sichere Weise zu nutzen“.

„Wir haben verschiedene Teams, die in einer Reihe von Experimenten entscheiden, wie sie es nutzen wollen. Sollten wir es in der Investor Relations verwenden? Sollten wir es im Wissensmanagement nutzen? Wie können wir damit Aufgaben effizienter erledigen?“

Einige Mitarbeiter geben an, dass sie auf ihren Firmencomputern überhaupt nicht auf die Plattform zugreifen können.

„Es ist im Büronetzwerk völlig verboten, als würde es nicht funktionieren“, sagte ein Procter & Gamble PG.N Mitarbeiter, der anonym bleiben wollte, da er nicht befugt war, mit der Presse zu sprechen.

P&G lehnte eine Stellungnahme ab. Reuters konnte nicht unabhängig bestätigen, ob Mitarbeiter von P&G ChatGPT nicht nutzen konnten.

Paul Lewis, Chief Information Security Officer beim Cybersicherheitsunternehmen Nominet, sagte, dass die Unternehmen zu Recht vorsichtig seien.

„Jeder profitiert von dieser erweiterten Fähigkeit, aber die Informationen sind nicht völlig sicher und können manipuliert werden“, sagte er und verwies auf „böswillige Eingabeaufforderungen“, mit denen KI-Chatbots dazu gebracht werden können, Informationen preiszugeben.

„Ein pauschales Verbot ist noch nicht gerechtfertigt, aber wir müssen vorsichtig vorgehen“, sagte Lewis.

Themen USA Commercial Lines Unternehmensversicherung

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein