Aktuelle Daten zu den Gewohnheiten der Menschen am Arbeitsplatz geben uns Anlass zu prüfen, ob der Einsatz künstlicher Intelligenz (KI) die Zusammenarbeit und den Wissensaustausch möglicherweise behindert.

Die unzähligen nützlichen Anwendungen, die inhaltsgenerierende Roboter wie chatgpt bieten, werden wahrscheinlich von großem Nutzen für die Gesellschaft sein. Aber wo ziehen wir die Grenze bei der Nutzung dieser Anwendungen am Arbeitsplatz?

Und für welche Aufgaben am Arbeitsplatz nutzen wir diese Roboter bereits?

Bei SINTEF haben wir uns im Rahmen einer kürzlich gemeinsam mit dem Beratungsunternehmen Knowit durchgeführten Studie mit diesem Thema befasst.

Beides harmlos…

Wir haben ausführliche Interviews mit einer kleinen Auswahl von Beschäftigten in Unternehmen geführt, die mit Technologie- und Digitalisierungssystemen arbeiten. Aus den Antworten gingen zwei übereinstimmende Erkenntnisse hervor.

Das erste ist, dass diejenigen, die ChatGPT aktiv nutzen, den Roboter größtenteils Aufgaben ausführen lassen, die sie als langweilig und eintönig empfinden.

Wir glauben, dass dieser Einsatz der Roboter harmlos ist und möglicherweise sogar positive Auswirkungen haben kann. Nach Aussage der Mitarbeiter selbst können sie durch die Entlastung effizienter arbeiten. Sie sagen auch, dass ihre Motivation gesteigert wird. Sie erleben einen sinnvolleren Arbeitstag, da die Anzahl demotivierender Aufgaben reduziert wird.

…und besorgniserregend

Unsere zweite Erkenntnis ist jedoch, dass einige Mitarbeiter dem Roboter auch arbeitsbezogene Fragen stellen. Sie sagen, dass es einfacher ist, mit ChatGPT zu sprechen als mit älteren Kollegen, und dass es keinen Sinn macht, höfliche und gut formulierte Fragen zu stellen, da ChatGPT trotzdem immer höflich antwortet.

Siehe auch  ChatGPTs Leitfaden zum Aushandeln niedrigerer Rechnungen: Geld sparen leicht gemacht

Man könnte meinen, dass dies auch unproblematisch sei.

Allerdings sind wir der Meinung, dass dieser Einsatz von Robotern Anlass zur Sorge gibt und dass wir auf der Hut sein sollten. Denn was passiert mit der Zusammenarbeit am Arbeitsplatz und dem Wissensaustausch, wenn Mitarbeiter lieber auf einen Roboter zurückgreifen als auf ihre Kollegen?

Spiegelt amerikanische Werte wider

Wir glauben, dass weitere Forschung zu diesem Thema erforderlich ist. Nicht zuletzt im Lichte dessen, was Sven Størmer Thaulow kürzlich in der überregionalen Tageszeitung schrieb Aftenposten. Thaulow ist Director of Data and Technology beim Medienkonzern Schibsted.

ChatGPT basiert auf amerikanischen Sprachmodellen, die wiederum die Inhalte widerspiegeln, in denen sie geschult werden. Das heißt, es werden Texte und andere Daten verwendet, die von einer Reihe amerikanischer Werte durchdrungen sind.

Das Arbeitsleben in Amerika ist nach ganz anderen Grundsätzen organisiert als in Norwegen. Sind es wirklich Ratschläge aus solchen Quellen, die wir unseren jungen Mitarbeitern in Norwegen zuhören sollen, wenn sie sich in ihrer Rolle unsicher fühlen?

Schreibblockade durchbrechen

Vorherige Untersuchungen haben gezeigt, dass die Anwendung generativer künstlicher Intelligenz am Arbeitsplatz hat die größten Auswirkungen auf junge und unerfahrene Mitarbeiter. Unsere Arbeit zeigt hingegen, dass Mitarbeiter, die mit Technologie arbeiten, solche Tools unabhängig von ihrem Erfahrungsstand nutzen.

In unserer Studie war das Spektrum der an ChatGPT delegierten „Aufgaben“ sehr breit gefächert.

Die Aufgaben vom Typ Eins oder „Langweilig“ reichten vom wiederholten Verfassen nahezu identischer Texte über das Durchbrechen von Schreibblockaden bis hin zum einfachen Zusammenstellen von Dokumenten. Laut einigen unserer Befragten können Arbeiten, die früher einen ganzen Tag dauerten, jetzt in ein oder zwei Stunden erledigt werden.

Siehe auch  Tubi fügt ChatGPT für Ihre Empfehlung Rabbit Holes hinzu

Den Roboter aufsuchen, um zu lernen

Typ-2-Aufgaben, die „Fragen, die wir ChatGPT stellen“ beinhalten, sind mit Themen wie Lernen verknüpft. Ein Befragter hatte den Roboter gefragt: „Wer ist der beste Mensch auf der Welt, der mir das beibringen kann?“ Stellen Sie sich vor, Sie wären diese Person und erklären Sie alles, als wäre ich ein Fünfjähriger.“

Manche Mitarbeiter nutzen den Roboter, weil sie die wertvolle Zeit ihrer Kollegen nicht verschwenden wollen.

Andere haben um Hilfe gebeten und diese als Antwort auf Fragen erhalten wie: „Ich weiß nicht einmal, was die richtige Frage ist, also geben Sie mir bitte einen Hinweis, der mich auf den richtigen Weg bringt.“ Mehrere Befragte berichteten, dass die bloße Formulierung einer Frage manchmal zu einem neuen Verständnis des Inhalts eines Problems führen kann.

Ältere Kollegen empfinden es als verletzend, ignoriert zu werden

Wir glauben jedoch, dass all dies potenzielle Nachteile mit sich bringt. google&auinit=AN&aulast=Meyer&atitle=Today%20was%20a%20good%20day:%20The%20daily%20life%20of%20software%20developers&id=doi:10.1109%2FTSE.2019.2904957&title=IEEE%20transactions%20on%20software%20engineering&volume=47&issue=5&date=2019&spage=863&issn=0098-5589&vid=NBI&institution=NBI&url_ctx_val=&url_ctx_fmt=null&isSerivcesPage=true”>Forschung zeigt, dass die Arbeitszufriedenheit steigt, wenn man Kollegen helfen kann, die Probleme haben.

Einer der von uns befragten Manager wies darauf hin, dass es als verletzend empfunden werden könnte, zu hören, dass Kollegen bei arbeitsbezogenen Problemen lieber Rat bei ChatGPT einholen würden.

Genau diese Frage bestärkt uns in der Empfehlung, forschungsbasiertes Wissen darüber zu erwerben, welche Folgen es hat, wenn Roboter Aspekte der Mentorenrolle übernehmen, die früher von anderen, auch älteren Kollegen wahrgenommen wurde.

Dieser Artikel wurde zuerst in der Finanzzeitung veröffentlicht Das heutige Geschäft und wird hier mit Genehmigung der Fachzeitschrift wiedergegeben.

5/5 - (371 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein