Für Unternehmen ist es von entscheidender Bedeutung, Einblick in Prozesse und Verfahren zu haben, die die Anwendungsfälle der Mitarbeiter bei chatgpt klar definieren, sagt Lizaan Lewis: Leiterin der Rechtsabteilung bei Altron Systems Integration.
ChatGPT, eine von OpenAI entwickelte generative künstliche Intelligenz (GAI), die auf der Grundlage der empfangenen Eingaben menschenähnlichen Text generieren soll, brach bei seiner Einführung am 30. November 2022 schnell Rekorde.
Innerhalb von nur zwei Monaten erreichte sie 100 Millionen aktive Benutzer pro Monat und ist damit die am schnellsten wachsende Verbraucheranwendung in der Geschichte.
Mittlerweile verfügt die Plattform über mehr als 180 Millionen aktive Nutzer, die sie für persönliche und berufliche Zwecke in Organisationen auf der ganzen Welt nutzen.
Obwohl es einen enormen Mehrwert und zeitsparende Funktionen bietet, insbesondere für Unternehmen, die seine Funktionen zur Optimierung von Aufgaben nutzen möchten, ist es ein Werkzeug, das eine sorgfältige Handhabung erfordert, um die mit dieser Technologie verbundenen Risiken zu minimieren.
ChatGPT bietet zeitsparende Funktionen. Es hat ein immenses Potenzial. Allerdings bietet es auch nur begrenzte Einblicke in Quellen, Informationsverzerrungen, Plagiate und Referenzen.
Dieser digitale Nebel des Krieges schränkt dann sozusagen die Fähigkeit der Unternehmen ein, Informationen zu überprüfen, ihre eigenen Daten zu schützen und sicherzustellen, dass Mitarbeiter die Technologie korrekt nutzen.
Eine der ersten Bedenken im Zusammenhang mit ChatGPT und seinen Anwendungsfällen innerhalb von Organisationen besteht darin, dass Vorschriften und Gesetze nicht aufgeholt haben. Wenn beispielsweise nach südafrikanischem Urheberrecht etwas von einem Computer geschaffen wird, besitzt die Person, die das Kunstwerk mit dem Computer erstellt hat, das Urheberrecht.
In den Vereinigten Staaten hingegen muss es sich um ein Werk handeln, das von einem Menschen geschaffen wurde. Verschiedene Länder haben unterschiedliche Erwartungen, dennoch erweisen sich die rechtlichen Bedenken rund um das Urheberrecht in der Praxis auf der ganzen Welt als erheblich, da durch KI verursachte Verstöße zunehmen.
Dies spiegelt sich bereits in einer aktuellen Ankündigung von wider Microsoft. Das Unternehmen hat erklärt, dass es „im Namen von Kunden, die seine Produkte der künstlichen Intelligenz (KI) nutzen, Schadensersatz zahlen wird, wenn sie wegen Urheberrechtsverletzung für die von solchen Systemen erzeugten Ergebnisse verklagt werden“.
Personen, die die Plattform zur Erstellung von Inhalten nutzen, erkennen möglicherweise nicht, dass die KI urheberrechtlich geschützte Informationen verwendet, um ihre Artikel, Berichte und Blogbeiträge zu erstellen, und geben daher nicht die richtigen Personen an.
Eine weitere Herausforderung besteht darin, dass es in der Verantwortung der Organisation liegt, die Einhaltung der Vorschriften sicherzustellen. Dies ist eine Herausforderung, wenn es noch nicht einmal Vorschriften gibt. Von Unternehmen wird erwartet, dass sie sicherstellen, dass ihre Richtlinien und Verfahren ihnen ein gewisses Maß an Schutz und Orientierung bieten. Aber wo stehen sie damit, wenn es um ChatGPT geht?
An dieser Stelle ist es für Unternehmen von entscheidender Bedeutung, sich darauf zu konzentrieren, wie sie ihre Richtlinien und Verfahren konsequent verfeinern, jeden potenziellen Anwendungsfall erfassen und Best-Practice-Methoden entwickeln können. Liegt es beispielsweise in der Verantwortung des Mitarbeiters, der mithilfe von KI Code generiert, den Code zu testen?
Ja, wenn es eine klar definierte Richtlinie gibt, die die Validierung der von ChatGPT empfangenen Ausgabe vorschreibt, um sicherzustellen, dass sie über eine verwendbare Codezeile verfügen.
Im Einklang mit Richtlinien und Verfahren besteht die Notwendigkeit, den Mitarbeitern Schulungen anzubieten. Sie müssen verstehen, was als persönliche und vertrauliche Informationen gilt, damit das Urheberrecht oder POPIA nicht verletzt werden.
Dies ist besonders wichtig, wenn die KI zur Erstellung von Berichten oder Präsentationen verwendet wird und Geschäftsinformationen in diese Open-Source-Plattform eingebunden werden, wodurch das Unternehmen möglicherweise gefährdet wird und gegen Datenschutzgesetze verstoßen wird.
KI ist für immer da. Es ist die Zukunft. Das bedeutet nicht, dass Unternehmen die KI aufgeben sollten, bevor sie zu riskant wird. Es bedeutet vielmehr, dass sie vorausschauend planen und aufpassen müssen, damit sie nicht diejenigen sind, die von der zunehmenden rechtlichen Komplexität betroffen sind.
Unternehmen, die die richtigen Richtlinien einführen, werden in einer weitaus besseren Position sein, wenn es darum geht, auftretende Probleme anzugehen – bereit mit ihrem Hammer für einen KI-Schlag, da ChatGPT immer komplexere und kompliziertere Bedenken rund um das Urheberrecht und die Codevalidierung aufwirft , falsche Informationen und Informationsschutz, unter anderem.