Im Jahr 2023 verbreitete sich der Einsatz generativer künstlicher Intelligenz (Gen AI) wie chatgpt viral. Generative KI-Plattformen können genutzt werden, um unternehmens- und berufsübergreifend eine Vielzahl von Effizienzsteigerungen zu erzielen, beispielsweise beim Verfassen von E-Mails, beim Zusammenfassen von Besprechungen oder beim Schreiben oder Debuggen von Codezeilen. Die weit verbreitete Einführung von ChatGPT und anderen Gen-KI-Ressourcen zeigte jedoch schnell das inhärente Risiko, das diesen Plattformen innewohnt. Zu diesen Risiken für Anwälte zählen vor allem ethische und datenschutzrechtliche Bedenken aufgrund der Art und Weise, wie diese Plattformen ausgenutzt werden.

Ethische Bedenken

Der kometenhafte Aufstieg von Open-Source-KI-Tools der Generation (z. B. Googles Bard, ChatGPT, Dall-E usw.) hat die Risiken offengelegt, denen bestimmte Benutzer ausgesetzt sein können, wenn sie diesen Tools vertrauen. Besorgniserregend ist, dass sich immer mehr Anwälte für die Durchführung ihrer juristischen Recherche- und Schreibaufgaben an ChatGPT und dergleichen gewandt haben. Mittlerweile haben die meisten Leser dieses Beitrags nicht nur von den beiden New Yorker Anwälten gehört, die mit Sanktionen belegt wurden, weil sie von ChatGPT erstellte Rechtsschriften eingereicht hatten, die „halluzinierte“ Gerichtsverfahren zur Untermauerung ihrer Argumentation anführten. Darüber hinaus verfolgen viele möglicherweise auch das Neueste und Beste über Michael Cohen – den ehemaligen Anwalt von Donald Trump, der ebenfalls mit Sanktionen rechnen muss, weil er sich auf „halluzinierte Fälle“ beruft, die er mithilfe von Googles Bard gefunden hat. Dies sind hervorragende Beispiele dafür, warum sich ein Benutzer, insbesondere ein Gerichtsbeamter, nicht blind auf das von diesen Gen-KI-Tools generierte Material verlassen sollte.

Dieser Ansporn für sanktionierbare Anwaltsaktivitäten hat mehrere staatliche Anwaltskammern, Gerichte und einzelne Richter dazu veranlasst, KI-Richtlinien zu erlassen. Insbesondere im Hinblick auf die ethischen Verpflichtungen eines Anwalts sehen die kalifornischen Richtlinien vor, dass Anwälte eine Offenlegung gegenüber ihren Mandanten in Betracht ziehen sollten, wenn sie Gen AI zur Erstellung von Arbeitsergebnissen verwenden.[1]

Siehe auch  Forschungsergebnisse zeigen, dass ChatGPT in mehr als 8 von 10 pädiatrischen Fallstudien eine falsche Diagnose gestellt hat

Datenschutzbedenken

Benutzer von Gen-AI-Tools sollten sich ebenso um die in Gen-AI-Tools eingegebenen Informationen kümmern wie um die von den Plattformen generierten Informationen. Als Referenz: ChatGPT und ähnliche Open-Source-Plattformen basieren auf großen Sprachmodellen (LLMs), die maschinelle Lernalgorithmen verwenden, um Benutzern eine menschenähnliche Konversation mit der Plattform zu ermöglichen. Im Allgemeinen bedeutet dies, dass diese Tools die Eingabeinformationen speichern, um Antworten auf zukünftige Eingabeaufforderungen generieren zu können. Diese Gen-KI-Modelle werden manchmal als „Black Boxes“ bezeichnet, da Benutzer nicht genau bestimmen können, wie das Tool eine Antwort generiert hat oder auf welche Informationen das Tool sich bei der Bereitstellung der Antwort gestützt hat. Dies führt zu eklatanten Datenschutzbedenken, da die Plattform die von einem Benutzer eingegebenen Informationen speichert und möglicherweise dieselben Informationen an einen anderen Benutzer weitergibt.

Der Datenschutzrichtlinie Auf der Website von OpenAI veröffentlicht heißt es: „Wenn Sie unsere Dienste nutzen, erfassen wir personenbezogene Daten, die in den Eingaben, Datei-Uploads oder Rückmeldungen enthalten sind, die Sie zu unseren Diensten bereitstellen.“ Einfach ausgedrückt gibt es keine Garantie dafür, dass die in ChatGPT eingegebenen Informationen privat oder vertraulich behandelt werden.

Damit birgt die Eingabe vertraulicher Informationen das Risiko einer unbeabsichtigten Offenlegung, eines Verzichts auf gesetzlich geschützte Kommunikation oder einer Verletzung der Vertraulichkeit. Das bedeutet, dass ein Anwalt, der Mandanteninformationen eingibt, um rechtliche Argumente zu generieren, höchstwahrscheinlich auf das Anwaltsgeheimnis gegenüber seinem Mandanten hinsichtlich bestimmter Kommunikationen verzichtet; oder ein Schulverwalter, der Schülerdaten eingibt, könnte gegen die Datenschutzbestimmungen des Family Educational Rights and Privacy Act (FERPA) verstoßen; oder die gelegentliche Nutzung durch einen Mitarbeiter des Unternehmens kann zur unbeabsichtigten Offenlegung eines Geschäftsgeheimnisses oder anderer vertraulicher oder sensibler Informationen führen.

Siehe auch  ChatGPT-3 vs. ChatGPT-4: Ein Leistungsvergleich

In der Tat, Oberster Richter John Roberts im Obersten Gerichtshof Jahresabschlussbericht erkannte, dass „jeder Einsatz von KI Vorsicht und Bescheidenheit erfordert.“ Einige Rechtswissenschaftler haben Bedenken geäußert, ob die Eingabe vertraulicher Informationen in ein KI-Tool spätere Versuche, sich auf das Rechtsprivileg zu berufen, gefährden könnte.“

Als allgemeine Regel gilt, dass Benutzer es vermeiden sollten, privilegierte oder geschützte Informationen in Gen AI-Tools einzugeben. Unternehmen sollten Richtlinien zu den Risiken und zur Nutzung von Gen-AI-Plattformen einführen, um eine unbeabsichtigte Offenlegung durch Mitarbeiter zu vermeiden. Bei der Verwendung eines Gen AI-Tools ist zu beachten, dass alle vom Benutzer eingegebenen Daten möglicherweise mit anderen geteilt werden.


[1] In einem weiteren Informationsmemo werden weitere Einzelheiten zu den Richtlinien und/oder Regeln der Landes- und Bundesgerichte im Zusammenhang mit der Verwendung von Gen-KI-Tools bereitgestellt.

[View source.]

5/5 - (198 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.