[ad_1]

  • Autor, Alex Christian
  • Rolle, BBC-Arbeitsleben

Seit OpenAI chatgpt eingeführt hat, ist ein virtueller Roboter (Chatbot), das eine Vielzahl von Fragen beantwortet, hatten Unternehmen im November 2022 Schwierigkeiten, die Nutzung des Tools am Arbeitsplatz unter Kontrolle zu halten.

Viele Unternehmen befürchten, dass ihre Daten durchsickern könnten – nicht nur, weil sie OpenAI-Algorithmen unbeabsichtigt mit sensiblen Informationen trainieren, sondern auch, weil sie möglicherweise Unternehmensgeheimnisse auf Anfrage von Wettbewerbern preisgeben könnten, sagt Simon Johnson, Leiter der globalen Wirtschafts- und Managementgruppe an der MIT Sloan School of Science. Management, in Massachusetts, in den Vereinigten Staaten.

„Das sind praktische Tools, die das Leben einfacher machen, wie zum Beispiel die Aggregation von Inhalten. Anstatt mehrere Quellen nach einer unklaren Organisationsrichtlinie zu durchsuchen, kann ChatGPT in wenigen Augenblicken einen nützlichen ersten Entwurf liefern“, sagt Bryan Hancock, Partner bei McKinsey & Co. mit Sitz in Washington.

„Sie können auch bei technischen Aufgaben wie dem Codieren helfen und Routineaufgaben ausführen, die die kognitive Belastung und die Zeitpläne der Mitarbeiter verringern.“

„Ich habe in meiner Doktorarbeit eine wirklich technische Frage gestellt und er hat eine Antwort gegeben, die niemand finden könnte, ohne Leute mit sehr spezifischem Fachwissen zu konsultieren. Ich wusste, dass es eine Wende bedeuten würde.“

Alltägliche Aufgaben in Ihrem schnelllebigen Arbeitsumfeld – wie die Recherche wissenschaftlicher Themen, das Sammeln von Quellen und das Erstellen ausführlicher Präsentationen für Kunden – wurden plötzlich zum Kinderspiel.

„Wir hatten einen erheblichen Wettbewerbsvorteil gegenüber unseren Kollegen – unsere Produktion war viel schneller und sie konnten nicht verstehen, wie. Unser Manager war sehr beeindruckt und sprach mit der Geschäftsleitung über unsere Leistung“, sagt er.

Bildunterschrift,

Mitarbeiter suchen nach Möglichkeiten, generative KI-Tools weiterhin unauffällig zu nutzen

Unabhängig davon, ob die Technologie ausdrücklich verboten ist, stark verpönt ist oder einigen Mitarbeitern einen geheimen Vorteil verschafft, suchen einige Mitarbeiter nach Möglichkeiten, generative KI-Tools weiterhin diskret zu nutzen.

Technologie wird immer mehr zu einem Feedbackkanal für Mitarbeiter: In einer Studie des professionellen sozialen Netzwerks Fishbowl vom Februar 2023 gaben 68 % von 5.067 Befragten, die KI am Arbeitsplatz nutzten, an, dass sie den Einsatz ihren Vorgesetzten gegenüber nicht offenlegen würden.

Selbst in Fällen ohne Arbeitsverbot möchten Mitarbeiter ihre KI-Nutzung möglicherweise dennoch vor Kollegen verbergen oder zumindest schützen.

„Wir haben noch keine etablierten Normen rund um KI – zunächst könnte es sich anfühlen, als würde man zugeben, dass man in seinem Job nicht so gut ist, wenn die Maschine viele seiner Aufgaben erledigt“, sagt Johnson. „Es ist ganz natürlich, dass die Leute es verbergen wollen.“

Infolgedessen entstehen Foren für Arbeitnehmer, in denen sie Strategien austauschen können, wie sie sich unauffällig verhalten können.

In Communities wie Reddit suchen viele Menschen nach Methoden, um Arbeitsplatzverbote heimlich zu umgehen, sei es durch High-Tech-Lösungen (Integration von ChatGPT in eine als Arbeitsplatz-Tool getarnte App) oder rudimentäre Lösungen, um die Nutzung zu verschleiern (Hinzufügen eines Sichtschutzes oder diskreten Zugriff auf Technologie). auf Ihrem Mobiltelefon).

Und eine wachsende Zahl von Arbeitnehmern, die auf KI angewiesen sind, muss möglicherweise nach Möglichkeiten suchen, die Nutzung aufrechtzuerhalten. Laut einer BlackBerry-Umfrage vom August 2023 unter 2.000 weltweiten Entscheidungsträgern im Bereich Informationstechnologie erwägen oder implementieren 75 % derzeit Verbote von ChatGPT und anderen generativen KI-Anwendungen am Arbeitsplatz, wobei 61 % angeben, dass Maßnahmen langfristig oder dauerhaft sein müssen.

Siehe auch  C64 erhält ChatGPT-Zugriff über BBS

Während diese Verbote Unternehmen dabei helfen können, sensible Informationen vor den falschen Händen zu schützen, könnte es laut Hancock nach hinten losgehen, die generative KI von den Arbeitnehmern fernzuhalten, insbesondere auf lange Sicht.

„KI-Tools stehen kurz davor, Teil der Mitarbeitererfahrung zu werden. Daher kann es frustrierend sein, den Zugriff auf sie einzuschränken, ohne Einblicke in den Zeitpunkt und die Art und Weise ihrer Einführung zu geben – beispielsweise nach der Einführung von Leitplanken“, sagt er.

„Und das könnte dazu führen, dass die Leute darüber nachdenken, an einem Ort zu arbeiten, an dem sie Zugang zu den Werkzeugen haben, die sie brauchen.“

Matt fand einen Workaround, um immer einen Schritt voraus zu sein: Er und sein Kollege begannen, heimlich die Suchplattform Perplexity zu nutzen.

Wie ChatGPT handelt es sich um ein generatives KI-Tool, das sofort komplexe schriftliche Antworten auf grundlegende Anfragen zurückgibt.

Matt gefällt Perplexity noch besser als ChatGPT: Es präsentiert Informationen in Echtzeit und zitiert Quellen, die schnell überprüft werden können, ideal, wenn Ihre Präsentationen tiefgreifendes, aktuelles Wissen erfordern.

Er überprüft es hunderte Male am Tag auf seinem Arbeitslaptop, oft bei der Arbeit von zu Hause aus, und nutzt es häufiger als google.

Matt hofft, dass er sein neuestes KI-Tool so lange wie möglich heimlich weiter nutzen kann.

Für ihn ist es die kleine Unannehmlichkeit wert, im Büro gelegentlich den Bildschirm seines Laptops dimmen zu müssen – und die Ressourcen nicht mit seinem Team zu teilen. „Ich bevorzuge es, den Wettbewerbsvorteil aufrechtzuerhalten“, sagt er.

[ad_2]

5/5 - (265 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein