Da die Technologie der künstlichen Intelligenz („KI“) weiter voranschreitet, melden sich immer mehr Menschen an und experimentieren mit der Technologie. chatgpt, eine kostenlose und beliebte KI, ist Berichten zufolge die am schnellsten wachsende Verbraucheranwendung in der Geschichte.[1] Aber es ist auch reif für Missbrauch am Arbeitsplatz. Beispielsweise gab es Berichte von Mitarbeitern, die ihren Job an ChatGPT abgaben und dann ihre Freizeit nutzten, um einen zweiten Job anzunehmen.[2] Während diese Tools die Effizienz und Produktivität steigern können, sind sie auch mit Risiken und rechtlichen Folgen verbunden, insbesondere wenn sie am Arbeitsplatz und insbesondere ohne Anleitung des Arbeitgebers verwendet werden.
Was Sie über die Funktionsweise von ChatGPT wissen müssen
Während sich die Technologie schnell weiterentwickelt und es viele Modelle gibt, ist ChatGPT derzeit anscheinend am anfälligsten für Überbeanspruchung. Eine Person kann online auf den kostenlosen Dienst zugreifen und ihn mit Eingabeaufforderungen, Informationen, Dokumenten, Daten usw. füttern. Der Computer nimmt alle Eingaben entgegen, leitet sie durch eine Blackbox (von der praktisch niemand etwas weiß) und erzeugt dann eine Ausgabe . Was mit Ihren Informationen, Dokumenten, Daten usw. passiert und worauf genau sie angewiesen sind, um Ergebnisse zu erzielen, ist weitgehend unbekannt. Aber man kann mit Sicherheit sagen, dass die Eingaben in die Maschine die Maschine schulen, damit sie Ihnen und anderen Benutzern in Zukunft helfen kann.
Wie generative KI-Modelle wie ChatGPT am Arbeitsplatz eingesetzt werden können
Es gibt unzählige Möglichkeiten, wie generative KI am Arbeitsplatz eingesetzt werden könnte, insbesondere wenn die Mitarbeiter sich selbst überlassen bleiben, um Entscheidungen über die Anwendung der neuen Technologie zu treffen. Wir befürworten diese Verwendungen nicht unbedingt, sondern identifizieren sie lediglich als einige wenige, die Mitarbeiter versuchen könnten. Diese Verwendungen könnten umfassen:
- Kundendienst: ChatGPT kann auf häufig gestellte Fragen und Kundenanfragen trainiert werden, um Kunden schnell und genau zu antworten. Dies kann die Zeit reduzieren, die vom Kundendienstpersonal benötigt wird, die Antworten beschleunigen und theoretisch das Kundenerlebnis verbessern.
- Dokumentenanalyse: ChatGPT kann verwendet werden, um große Mengen an Dokumenten zu analysieren und zusammenzufassen, wie z. B. rechtsgültige Verträge oder Finanzberichte. Dies kann die Mitarbeiterzeit reduzieren, die erforderlich ist, um wichtige Informationen zu identifizieren und fundierte Entscheidungen zu treffen.
- Schreibhilfe: ChatGPT kann verwendet werden, um Mitarbeiter bei Schreibaufgaben wie dem Verfassen von E-Mails oder Memos zu unterstützen. ChatGPT kann Vorschläge zur Satzstruktur, Grammatik und Wortwahl machen, damit Mitarbeiter klarer, effektiver und schneller schreiben können.
- Wissensmanagement: ChatGPT kann verwendet werden, um eine Wissensdatenbank für Mitarbeiter zu erstellen, in der sie Fragen stellen und Antworten zu einer Vielzahl von Themen erhalten können. Dies kann neuen Mitarbeitern helfen, sich schnell mit den Unternehmensrichtlinien und -verfahren vertraut zu machen, und es bestehenden Mitarbeitern ermöglichen, schneller und einfacher auf Informationen zuzugreifen.
Schritte, die Arbeitgeber ergreifen können, um Risiken zu mindern
Als Arbeitgeber ist es wichtig, die potenziellen Risiken im Zusammenhang mit der Verwendung von generativer KI, ChatGPT und anderen Sprachmodellen für juristische Materialien („LLMs“) zu verstehen.[3] am Arbeitsplatz. Hier sind einige Schritte, die Sie unternehmen können, um die Haftung zu begrenzen:
- Entwickeln Sie eine Richtlinie: Erstellen Sie eine Richtlinie, die beschreibt, wie generative KI einschließlich ChatGPT und andere LLMs am Arbeitsplatz verwendet werden können. Definieren Sie klar, welche Arten von Informationen über diese Tools weitergegeben werden können und welche nicht, und geben Sie an, wer berechtigt ist, sie zu verwenden.
- Training anbieten: Stellen Sie sicher, dass Ihre Mitarbeiter im richtigen Umgang mit generativer KI geschult sind. Dazu gehört, die mit diesen Tools verbundenen Risiken zu verstehen und mögliche rechtliche Fallstricke zu vermeiden. Abhängig von Ihrer Branche und den Arten vertraulicher Informationen in Ihrem Besitz sollten spezielle Umschulungen in Bezug auf Vertraulichkeit und Datenschutz angeboten werden. Insbesondere wenn Ihr Unternehmen im Besitz von HIPAA-, FERPA-, GLBA-, FCRA-, COPPA-, ECPA-, VPPA- und/oder DPPA-geschützten Informationen oder anderen sensiblen Informationen ist, ist es wichtig, die Mitarbeiter hinsichtlich ihrer Verpflichtungen im Lichte dieser neuen Technologie neu zu schulen. Schulen Sie die Mitarbeiter auch über die Richtlinien und Verfahren für den Umgang mit vertraulichen Geschäftsinformationen und geistigem Eigentum des Unternehmens.
- Prüfungsordnungen und Ethikregeln: Wenn Ihr Beruf reglementiert ist und/oder Sie unter einem Ethikkodex arbeiten, ist es ratsam, diese Kontrollregeln im Lichte dieser neuen Technologie zu überprüfen. Online-Artikel können Sie nur so weit bringen, und Sie müssen sicherstellen, dass Ihre Reaktion auf die generative KI auf die einzigartigen Bedürfnisse Ihres Unternehmens und die einzigartigen Gesetze jedes Staates zugeschnitten ist.
- Nutzung überwachen: Überwachen Sie regelmäßig die Nutzung generativer KI-Plattformen durch die Mitarbeiter, um die Einhaltung der Unternehmensrichtlinien und gesetzlichen Anforderungen sicherzustellen. Dies kann durch Überwachungssoftware oder regelmäßige Audits erfolgen.
- Zugang einschränken: Beschränken Sie den Zugriff auf bestimmte Plattformen nur auf diejenigen Mitarbeiter, die einen berechtigten geschäftlichen Bedarf daran haben. Dies kann dazu beitragen, das Risiko zu minimieren, dass vertrauliche Informationen unangemessen weitergegeben werden. Wenn Sie am Ende einer der Arbeitgeber sind, die ChatGPT insgesamt verboten haben,[4] Untermauern Sie dieses Verbot mit einem Programm, das den Zugriff einschränkt.
- Machen Sie angemessene Offenlegungen und holen Sie die Zustimmung ein: In dem Maße, in dem sich Ihr Unternehmen dafür entscheidet, Mitarbeitern die Verwendung generativer KI-Modelle zu gestatten, überlegen Sie, ob dies eine Offenlegung gegenüber Ihren Kunden erfordert, und überlegen Sie insbesondere, ob dies ihre schriftliche Einwilligung nach Sachkenntnis erfordert. Wenn vorgeschlagen wird, vertrauliche Informationen über Online-KI-Modelle weiterzugeben, ist es wahrscheinlich ratsam, diese Zustimmung einzuholen.
- Schützen Sie sich vor dem Schurkenmitarbeiter: Treffen Sie geeignete Wettbewerbs-, Abwerbe-, Vertraulichkeits- und/oder andere Vereinbarungen, um sich vor betrügerischen Mitarbeitern zu schützen, die beschließen, vertrauliche Informationen über generative KI weiterzugeben,[5] oder die beschließen, ihre neu gewonnene Freizeit zu nutzen, um illoyal zu handeln.[6] Einige dieser Schutzmaßnahmen erfordern möglicherweise eine besondere Vereinbarung, und andere Teile davon können durch eine umfassende Überprüfung Ihres Mitarbeiterhandbuchs gehandhabt werden. Lassen Sie ChatGPT diese nur nicht für Sie schreiben!
- Wenden Sie sich an einen Rechtsbeistand: Schließlich sollten Sie sich an einen Rechtsbeistand wenden, um sicherzustellen, dass Ihre Richtlinien und Verfahren allen geltenden Gesetzen und Vorschriften entsprechen.
Zusammenfassend lässt sich sagen, dass generative KI, einschließlich ChatGPT und anderer LLMs, wertvolle Werkzeuge für Unternehmen sein können, die ihre Effizienz und Produktivität steigern möchten. Sie sind jedoch auch mit rechtlichen Risiken und Implikationen verbunden, die sorgfältig abgewogen werden müssen. Durch die Entwicklung klarer Richtlinien, die Bereitstellung von Schulungen, die Überwachung der Nutzung, die Beschränkung des Zugangs und die Beratung mit Rechtsberatern können Arbeitgeber dazu beitragen, ihre Haftung zu begrenzen und sicherzustellen, dass diese Tools am Arbeitsplatz angemessen verwendet werden.
[2] https://www.businessinsider.com/chatgpt-second-job-overworking-overemployment-2023-4
[3] „LLM“ ist ein Akronym, das für „Language Model for Legal Material“ steht. Es bezieht sich auf eine bestimmte Art von maschinellem Lernmodell, das mit großen Datensätzen von Rechtstexten wie Gerichtsgutachten, Gesetzen und juristischen Abhandlungen trainiert wurde, um menschenähnliche Antworten auf Rechtsfragen zu generieren. LLMs wurden entwickelt, um Juristen wie Anwälte und Rechtsanwaltsfachangestellte bei der Rechtsrecherche, der Vertragsanalyse und anderen Aufgaben zu unterstützen, die eine fortgeschrittene Sprachverarbeitung und -analyse erfordern. Sie werden häufig in Verbindung mit anderen Rechtstechnologie-Tools wie Chatbots, Dokumentenautomatisierungssoftware und Rechtsanalyseplattformen verwendet, um die Effizienz und Genauigkeit der juristischen Arbeit zu verbessern. ChatGPT ist ein allgemeineres Sprachmodell, das auf verschiedene Aufgaben und Branchen angewendet werden kann, einschließlich juristischer Dienstleistungen, und somit eine Art LLM ist und von Mitarbeitern als solches angewendet werden kann.
[4] https://www.nbcnews.com/tech/tech-news/samsung-bans-use-chatgpt-employees-misuse-chatbot-rcna82407
[6] https://www.businessinsider.com/chatgpt-second-job-overworking-overemployment-2023-4