Neue Forschung von Indusface zeigt, dass chatgpt branchenübergreifend eine zunehmende Nutzung verzeichnet, obwohl seine Nutzung am Arbeitsplatz in den letzten Monaten stark in Frage gestellt wurde.

ChatGPT kann ein sehr nützliches Produktivitätstool sein, das dabei hilft, Informationen zu sammeln, zusammenzufassen und zu vereinfachen – es gibt jedoch eine Reihe von Problemen, die Arbeitnehmer in Schwierigkeiten bringen können.

An der Spitze stand die Werbebranche: 39 % der Befragten gaben an, dass sie ChatGPT aktiv am Arbeitsplatz nutzen.

Alleskönner, aber kein Meister

In der Rangliste belegte der Rechtssektor knapp den zweiten Platz, wobei 38 % der Befragten ChatGPT für ihre Arbeit nutzten. Es folgt die Kunst- und Medienbranche mit 33 %, sowohl die Informations- und Kommunikationstechnologiebranche als auch die Baubranche mit 30 %, wobei rund 29 % der Befragten ChatGPT in den Bereichen Immobilien und Immobilien, Fertigung sowie Call Center und Kundendienst nutzen am Arbeitsplatz.

Die Branche Gesundheitswesen und Medizin erreichte mit 28 % die gleiche Nutzung wie Regierung und Verteidigung. In allen Branchen wurde die generative KI am häufigsten zum Verfassen von Berichten eingesetzt (27 %), dicht gefolgt von der Verwendung von ChatGPT zum Übersetzen von Informationen (25 %), wobei Forschungszwecke nicht gerecht wurden (17 %).

Venky Sundar, Gründer und Präsident von Indusface, weist darauf hin, dass es bei der Verwendung von ChatGPT am Arbeitsplatz eine Reihe besorgniserregender Probleme gibt: „Speziell bei Geschäftsdokumenten bestehen folgende Risiken: Rechtsklauseln sind sehr subjektiv, und das ist immer der Fall.“ Lassen Sie diese besser von einem Experten überprüfen.

Siehe auch  Amazon baut den Olymp auf, um mit ChatGPT zu konkurrieren

„Das zweite Risiko besteht darin, dass Sie proprietäre Informationen in chatGPT teilen und immer das Risiko besteht, dass diese Daten für die breite Öffentlichkeit zugänglich sind und Sie möglicherweise Ihr geistiges Eigentum verlieren. Bitten Sie chatGPT daher niemals um Dokumentation zu proprietären Dokumenten, einschließlich Produkt-Roadmaps, Patenten usw.

Sundar weist außerdem darauf hin, dass der Einsatz generativer KI und großer Sprachmodelle (LLM) die Entwicklungszeiten branchenübergreifend verkürzt hat, sodass aus einer Idee in sehr kurzer Zeit ein Produkt werden kann.

„Das Risiko besteht jedoch darin, dass Proof of Concept (POC) nur für diesen Zweck verwendet werden sollte. Wenn Sie mit dem POC auf den Markt kommen, könnte dies schwerwiegende Folgen für die Anwendungssicherheit und den Datenschutz haben. Das andere Risiko besteht darin, LLMs nur als Eingabeschnittstelle für die Produkte zu verwenden, und es könnte zu sofortigen Injektionen kommen, und das Risiko ist dort unbekannt.“

Interessanterweise gaben mehr als die Hälfte (55 %) der Befragten an, dass sie einer Zusammenarbeit mit einem anderen Unternehmen, das ChatGPT oder eine ähnliche KI in seiner täglichen Arbeit nutzt, nicht vertrauen würden.

Mehr von TechRadar Pro

5/5 - (468 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.