Seit seiner öffentlichen Einführung hat die generative KI von OpenAI nicht aufgehört, darüber zu sprechen. chatgpt ist nützlich, einfach zu bedienen und im Alltag interessant und hat einen Wendepunkt markiert, insbesondere im Büro. Dennoch scheuen einige Unternehmen davor zurück, dass ihre Mitarbeiter dies ausnutzen.
Das Tool von OpenAI hat ernsthafte Argumente dafür, bestimmte Belastungen im Berufsleben zu lindern. Es kann uns helfen, E-Mails zu schreiben, Ideen zu geben, unsere Rechtschreibung oder Grammatik und sogar den Ton unseres Schreibens zu korrigieren und außerdem komplexe Begriffe und Konzepte bekannt zu machen. Alles kostenlos – zumindest in der Basisversion. Es ist schwer, der Versuchung nicht zu erliegen.
- Viele von ihnen nutzen es täglich bei ihrer Arbeit für alle oben genannten Zwecke, aber noch für viele weitere.
- In einigen Fällen ist die Verwendung von ChatGPT der Hierarchie bekannt und wird akzeptiert, in anderen Fällen ist dies jedoch nicht der Fall. Schlimmer noch, es ist verboten.
Mehrere Gründe
Die Gründe für diese Weigerung, generative KI am Arbeitsplatz einzusetzen, können vielfältig sein. Eine davon ist durchaus logisch: Unternehmen wollen einfach keine menschlichen Mitarbeiter dafür bezahlen, dass Software ihre Arbeit für sie erledigt – auch wenn ChatGPT eher als Helfer gilt.
Eine andere Erklärung ist einfach ein mangelndes Verständnis darüber, was generative KI ist und welche Auswirkungen sie auf das Büro haben kann.
Aber der Hauptgrund ist zweifellos die Angst, dass vertrauliche Informationen mit einer Plattform geteilt werden, die einem anderen Unternehmen gehört. Dies stellt eine potenzielle Verletzung der Sicherheit, aber auch der Vertraulichkeit dar.
Unbekannte Verwendung geteilter Informationen
Mehrere große Unternehmen haben daher hart gegen den Einsatz vorgegangen, aus Angst, dass sensible Informationen durch dieses Tool in die falschen Hände geraten könnten.
- Dies ist insbesondere der Fall bei Samsung der die Nutzung von ChatGPT verbot, nachdem er erfahren hatte, dass ein Ingenieur sensiblen Quellcode kopiert und auf der Plattform eingefügt hatte.
- Die generative KI von OpenAI kann tatsächlich nützlich sein, um Fehler im Computercode zu erkennen und zu korrigieren.
- Die gleiche Geschichte nebenbeiAmazonas das seine Entwickler dazu drängte, seine eigene interne KI, CodeWhisperer, für Codierungstipps oder Verknüpfungen zu verwenden.
- apple ist keine Ausnahme. Das Unternehmen aus Cupertino hat die Nutzung von ChatGPT für bestimmte Mitarbeiter eingeschränkt, um die Offenlegung vertraulicher Informationen zu vermeiden.
Und nicht nur große Unternehmen haben Angst vor einer möglichen Ausbeutung der mit ChatGPT geteilten Daten, sondern insbesondere auch Krankenhäuser und Banken, darunter Goldman Sachs, Citigroup, Deutsche Bank oder JP Morgan – ungeachtet der Interessen, die KI dabei vertreten kann zwei Sektoren.
- Auch hier stellt die Frage der Vertraulichkeit sowohl bei Patienten- als auch bei Kundendaten ein Problem dar.
- Die Nutzung der auf OpenAI-Servern gespeicherten Informationen wird hervorgehoben, aber nicht nur.
- Sicherheit – oder besser gesagt die Mängel in diesem Bereich – ist das andere große Argument dafür, den Einsatz von ChatGPT im Zusammenhang mit der Verarbeitung sensibler Informationen zu unterdrücken.
- Im vergangenen März musste OpenAI ChatGPT vorübergehend schließen, da ein Fehler aufgetreten war, der es ermöglichte, die Titel der Chatverläufe der Benutzer zu ermitteln.
- Wenn es nicht darum ging, direkt auf die Inhalte zuzugreifen, wurden in dieser Episode nur die Sicherheitslücken des Tools hervorgehoben.
Multiplikation von KIs
Die mangelnde Begeisterung großer Unternehmen und Branchen, die mit sensiblen Informationen umgehen, gegenüber ChatGPT oder Bard, der generativen KI von google, ist endlich verständlich. Darüber hinaus bedeutet dies nicht, dass sie gegen den Einsatz dieser Technologie in ihrem Inneren sind, sondern vielmehr, dass sie lieber ein Werkzeug verwenden werden, das sie selbst entwickelt haben oder dem sie vertrauen.