Die Studie des App-Sicherheitsunternehmens Indusface enthüllt nicht nur Branchen, die sich am meisten auf chatgpt stützen, sondern geht auch auf die Besonderheiten ein, wofür LLM im Alltag genutzt wird.

Die Studie Basierend auf einer britischen Umfrage unter 2.000 Befragten aus 25 Branchen fanden heraus, dass die Werbebranche ChatGPT am häufigsten am Arbeitsplatz nutzt, wobei fast zwei Fünftel (39 %) der Arbeitnehmer zugeben, es beruflich zu nutzen. Von ihnen geben 11 % an, es häufig, mehr als einmal pro Woche, zu verwenden.

Unternehmen im Rechtssektor sind die zweitgrößte Branche, die ChatGPT am häufigsten nutzt. 38 Prozent der befragten juristischen Arbeitnehmer geben zu, ChatGPT oder alternative KI-Methoden für die Arbeit zu nutzen.

An dritter Stelle stehen Kunst und Medien, wobei 33 % der Arbeitnehmer in der Branche zugeben, ChatGPT für ihre Arbeit zu nutzen.

Den Ergebnissen zufolge nutzen Arbeitnehmer im kreativen Bereich KI häufiger als jede andere Branche unter den Top 10 bei ihrer Arbeit, wobei über 13 % zugeben, sie mindestens einmal pro Woche zu nutzen.

Trotz der Beliebtheit von ChatGPT gaben laut der Umfrage mehr als die Hälfte (55 %) der Unternehmensmitarbeiter an, dass sie der Zusammenarbeit mit einem anderen Unternehmen, das ChatGPT oder eine ähnliche KI an seinem Arbeitsplatz verwendet, nicht vertrauen.

Wozu nutzen Menschen ChatGPT am Arbeitsplatz?

Laut der durchgeführten Umfrage sind Arbeitsberichte die Aufgabe, bei der ChatGPT oder KI am häufigsten zum Einsatz kommen (27 %).

An zweiter Stelle steht die Übersetzung, wobei ein Viertel der Menschen ChatGPT aus diesem Grund bei der Arbeit nutzt. Der dritte Grund sind eigene Forschungszwecke (17 %).

Siehe auch  ChatGPT verliert Benutzer. Ist der Hype um künstliche Intelligenz vorbei?

Am Ende der Tabelle nutzen 11 % der Mitarbeiter ChatGPT, um E-Mails an ihre Kunden zu schreiben.

Venky Sundar, Gründer und Präsident von Indusface, teilt seine Erkenntnisse über die Risiken und Vorteile der Verwendung von ChatGPT: „Speziell bei Geschäftsdokumenten bestehen Risiken: Rechtsklauseln sind sehr subjektiv und es ist immer besser, sie von einem Experten überprüfen zu lassen.

„Das zweite Risiko besteht darin, dass Sie proprietäre Informationen in ChatGPT teilen und immer das Risiko besteht, dass diese Daten für die breite Öffentlichkeit zugänglich sind und Sie möglicherweise Ihr geistiges Eigentum verlieren. Bitten Sie ChatGPT daher niemals um Dokumentation zu proprietären Dokumenten, einschließlich Produkt-Roadmaps, Patenten usw.

„Der Vorteil besteht darin, dass ein V1-Entwurf leicht zu erhalten ist und es hilfreich ist, Gedanken zu formulieren, insbesondere für generische Vorlagen wie E-Mail-Vorlagen usw.

„Für die Anwendungssicherheit besteht das Risiko darin, dass Sie nicht sicher sind, ob die von ChatGPT geschriebenen Codefragmente sicher sind. Vor der Bereitstellung müssen Sie jedoch noch umfassende Sicherheitstests durchführen.

„Der Reifegrad des Umgangs mit Daten und der Besitz von Vertrauen ist immer noch nicht genau definiert, und die Unternehmen vertrauen zu Recht nicht vollständig darauf, da sie sich Sorgen über die Verwendung oder besser gesagt den Missbrauch ihrer Daten machen.“ Wie bei jeder Technologie wird es Early Adopters geben, aber diese Leute sind technisch versiert und eine Minderheit. Es wird seine eigene Zeit brauchen, bis es jeder annimmt.

„ChatGPT oder LLMs im Allgemeinen haben die Entwicklungszyklen sehr verkürzt. Es ist jetzt einfacher, eine Idee in wenigen Tagen in einen funktionierenden Proof of Concept umzuwandeln als in Monaten zuvor.

Siehe auch  Silicon Valley möchte wirklich, dass Roboter ihren ChatGPT-Moment bekommen

Literatur-Empfehlungen


„Das Risiko besteht jedoch darin, dass POC nur für diesen Zweck verwendet werden sollte. Wenn Sie mit dem POC auf den Markt kommen, könnte dies schwerwiegende Folgen für die Anwendungssicherheit und den Datenschutz haben.

„Das andere Risiko besteht darin, LLMs nur als Eingabeschnittstelle für die Produkte zu verwenden, und es könnte zu sofortigen Injektionen kommen, und das Risiko ist dort unbekannt.“

„Ein Denkprozess besteht darin, dass die Wissensbasis, die zum Erstellen von Produktivitätsanwendungsfällen verwendet wird, und die Wissensbasis, die zum Erstellen von Verteidigungsanwendungsfällen für nicht akzeptable Bereiche verwendet wird, separate Quellen sein müssen, die kontinuierlich geschult und aktualisiert werden müssen.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.