Seit dem öffentlichen Debüt von chatgpt vor einem Jahr haben Anwälte und Richter die Auswirkungen der generativen künstlichen Intelligenz nicht nur auf rechtliche Fragen im Urheberrecht, im Arbeitsrecht und in anderen Rechtsbereichen, sondern auch auf Gerichtsverfahren selbst bewertet.

Während sich die Rechtsgemeinschaft mit den Einsatzmöglichkeiten der Technologie auseinandersetzt, haben Richter im ganzen Land Anordnungen erlassen, in denen dargelegt wird, wie Anwälte KI in Akten einsetzen sollten, und Gerichte prüfen weiterhin, wo die Technologie in die Rechtspraxis passen sollte. Das US-Berufungsgericht für den fünften Bezirk erklärte kürzlich, es erwäge, von Anwälten zu verlangen, die Richtigkeit aller beim Gericht eingereichten generativen Geheimdienstmaterialien zu bescheinigen. Aber nicht alle Richter befürworten Daueraufträge oder Zertifizierungsanforderungen als wirksamsten Mechanismus zur Eindämmung generativen KI-Missbrauchs.

Eine Handvoll Richter erließen eine Reihe von Geschäftsanordnungen, in denen klargestellt wurde, wie die Technologie in ihren Gerichtssälen eingesetzt werden könnte, nachdem ein Anwalt im Mai 2023 eine Akte mit von ChatGPT fabrizierten Zitaten eingereicht hatte Mata v. Avianca Inc., eine Personenschadensklage gegen eine Fluggesellschaft. Als Sanktion wurde den Anwälten des Klägers eine Geldstrafe von 5.000 US-Dollar auferlegt. Das Missgeschick verdeutlichte das „Halluzinationsproblem“ der generativen KI, wenn die Technologie falsche Informationen als Tatsachen darstellt, und die besonderen Gefahren, die sie für Rechtspraktiker mit sich bringt.

Patchwork von Ansätzen in KI-Geschäftsordnungen

Richter Brantley D. Starr vom US-Bezirksgericht für den nördlichen Bezirk von Texas erließ am 30. Mai als erster eine Anordnung, die Anwälte dazu aufforderte, die Richtigkeit ihrer Unterlagen zu bestätigen. Starr sagte, er habe seinen Befehl ausgearbeitet, bevor die Nachricht davon bekannt wurde Avianca Einreichung. Eine Fortbildungskonferenz für Richter im Fünften Bezirk machte ihn auf die Voreingenommenheitsprobleme der Technologie und die Möglichkeit aufmerksam, dass generative KI falsche Fakten produzieren könnte. Aber die Avianca Der Vorfall machte Starr klar, dass er Änderungen an seiner Bestellung vornehmen musste.

„Mir wurde klar, dass meine fehlerhafte Sprache es jedem, der ChatGPT verwendet, ermöglichen würde, bei ChatGPT nachzuschauen, und das war nicht wirklich meine Absicht“, sagte Starr. Er änderte seine Anordnung dahingehend, dass Benutzer generativer KI die für Einreichungen verwendete Sprache mit herkömmlichen Datenbanken vergleichen müssen. Starr sagte, er betrachte die Anordnung als eine Möglichkeit, einen Verstoß zu verhindern, der eine Sanktion verdient.

Siehe auch  Wir haben ChatGPT gefragt, wie schnell Ripple (XRP) 1 US-Dollar erreichen kann?

„Meine Fähigkeit, Anwälte zu sanktionieren, ist das Allerheiligste. Ich hätte lieber das Quäntchen Prävention, also ist das mein Ziel“, sagte er. Er fügte hinzu, dass seine Anordnung seiner Meinung nach eine Haltbarkeitsdauer habe, da sich die Technologie verbessere und die Anwälte mit ihren Fähigkeiten vertrauter würden.

Mehr als ein Dutzend weitere Richter haben ihre eigene Geschäftsordnung erlassen, in der sie den Einsatz generativer KI in ihren Gerichtssälen darlegen. Der Umfang der Aufträge reicht von lediglich Warnung Anwälte über die Fallstricke der generativen KI, ohne ihren Einsatz zu verbieten oder von Anwälten dies zu verlangen offenbaren wie generative KI eingesetzt wurde, um verbieten KI-Einsatz außerhalb von Suchmaschinen.

Zuletzt trafen am 14. November die vier Richter des US-Bezirksgerichts für den Bezirk Hawaii ein ausgegeben eine allgemeine Anordnung zur Verwendung „unverifizierter Quellen“ in KI-generierten Einreichungen, die von einem Rechtsbeistand verlangt, zu erklären, wie die Einreichung verfasst wurde und dass ihre Richtigkeit bestätigt wurde. „Der Umfang der erforderlichen Erklärung entspricht dem gemäß Regel 11“, heißt es in der Anordnung.

Der ehemalige Richter Paul W. Grimm, der nach 26 Jahren als Richter am US-Bezirksgericht für den Bezirk Maryland in den Ruhestand ging, sagt, dieser Flickenteppich generativer KI-Anordnungen sei nicht so klar, wie er sein könnte.

„Wenn ein Richter sich einfach hinsetzt und einen Befehl erlässt, hat niemand die Gelegenheit, sich das anzusehen und zu sagen: Moment mal, Richter, brauchen Sie das wirklich?“ sagte Grimm. „Ich bevorzuge einfach von Natur aus den Ansatz lokaler Regeln, weil man sie so veröffentlicht und die Leute die Chance haben, sie zu sehen.“

Gemeinsam mit den Co-Autoren Maura Grossman und Daniel Brown argumentierte Grimm in einem Artikel veröffentlicht in der neuesten Ausgabe der Zeitschrift Judicature der Duke Law School, dass Gerichte lokale Regeln übernehmen sollten. Ein solcher Ansatz würde es anderen Richtern und Anwälten ermöglichen, sich zu der Regel zu äußern, was unbeabsichtigte nachteilige Folgen aufdecken und Fragen des Anwendungsbereichs besser angehen würde, sagen sie.

„Individualisierte Daueraufträge sind unnötig, schaffen unbeabsichtigte Verwirrung, verursachen unnötige Belastungen und Kosten und verhindern die legitime Nutzung von GenAI-Anwendungen, die die Produktivität und den Zugang zur Justiz steigern könnten“, sagen Grimm und seine Co-Autoren in dem Artikel.

Aber Katherine Forrest, die sieben Jahre lang als Richterin am US-Bezirksgericht für den südlichen Bezirk von New York tätig war und jetzt Partnerin bei Paul Weiss ist, sagt, dass die mangelnde Einheitlichkeit der Anordnungen kein Problem sei.

Siehe auch  4 ChatGPT-Aufforderungen, Ihr inneres Vertrauen zu finden

„Anwälte sind es gewohnt, eine ganze Reihe von Daueraufträgen einzusehen und sich mit ihnen auseinanderzusetzen“, sagte sie.

Laut Forrest ist es wichtig, die Aufträge im Kontext zu betrachten, wie verschiedene Sektoren insgesamt auf das Aufkommen der generativen KI reagierten.

„Plötzlich kam es zu einer Reihe von Aktivitäten im kommerziellen Bereich, im akademischen Bereich und vor Gericht, bei denen versucht wurde, eine Art Standbild zu schaffen“, sagte Forrest. Sie stellte fest, dass der Einsatz generativer KI in einer Vielzahl von Sektoren gegen Regeln zu unlauteren Praktiken verstößt und die Gerichte von den Prozessparteien verlangen, dass sie die Auswirkungen von Vertraulichkeits- und Genauigkeitsproblemen auf die beruflichen Pflichten von Anwälten verstehen.

„Die Öffentlichkeit musste einen eigenen Lernprozess durchlaufen, bei dem sie sich mit einigen der Genauigkeitsprobleme auseinandersetzen musste“, sagte Forrest.

Auch wenn diese Tools erhebliche Auswirkungen auf die Rechtspraxis haben und möglicherweise den Zugang zur Justiz erweitern könnten, seien sie aufgrund von Bedenken hinsichtlich Genauigkeit und Vertraulichkeit derzeit „nicht bereit für die Hauptsendezeit“, sagte Forrest.

Datenschutzprobleme von GenAI

Vertraulichkeits- und Datenschutzprobleme waren der Grund, warum Richter Stephen Alexander Vaden vom US-amerikanischen Gerichtshof für internationalen Handel eine Anordnung erließ. In seiner Anordnung werden Prozessbeteiligte, die generative KI eingesetzt haben, aufgefordert, offenzulegen, welche Textteile mit diesen Tools generiert wurden, und zu bestätigen, dass keine vertraulichen Informationen offengelegt wurden.

„Mein Ziel war es nicht, ein Idiot zu sein. Und mein Ziel war es auch nicht, die Prozessparteien vor mir damit zu belasten, mir zu sagen oder zu schwören, dass sie etwas nicht verwendet haben“, sagte Vaden. „Was ich wollte, war eine Ankündigungsregelung und etwas, das eine feierliche Funktion hatte.“

Vaden sagte, er wolle Prozessparteien warnen, dass die Eingabe vertraulicher Geschäftsinformationen in ein KI-Tool bestimmte rechtliche Privilegien mit sich bringen könnte. Angesichts der Tatsache, dass Unternehmen wie google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwiaie2JjqaCAxV3F2IAHakaCjQQFnoECBcQAQ&url=https%3A%2F%2Fwww.wsj.com%2Farticles%2Fapple-restricts-use-of-chatgpt-joining-other-companies-wary-of-leaks-d44d7d34&usg=AOvVaw2Lo5WTYwbQY9KWLLSBf4sd&opi=89978449″>Apfel Und Samsung Vaden sagte, er fühle sich durch seine Entscheidung, seine Anordnung zu erlassen, bestätigt.

Vaden sagte, dass er in den Monaten seit Erlass seiner Anordnung keine Mitteilungen über den Einsatz generativer KI in seinem Gerichtssaal erhalten habe, aber er glaube, dass die Anwälte seiner Regel folgen. Obwohl Anwälte nicht erklärt haben, dass sie in ihren Akten KI verwenden, stellte Vaden fest, dass andere Richter, Anwälte und gewählte Amtsträger ihm privat dafür gedankt haben, dass er die Anordnung erlassen und sie auf mögliche Probleme mit der Technologie aufmerksam gemacht hat.

Siehe auch  ChatGPT gibt Pepe-Coin-Preisanalyse: Könnte dieser neue Token der nächste große Meme-Coin sein?

Einige Richter sind jedoch skeptisch, dass Geschäftsordnungen der richtige Weg sind, um festzulegen, wie generative KI im Gerichtssaal eingesetzt werden sollte.

Bestellungen sind möglicherweise nicht das beste Werkzeug

Richter Xavier Rodriguez vom US-Bezirksgericht für den westlichen Bezirk von Texas sagte, dass Richter solche Anordnungen aus mehreren Gründen nicht erlassen sollten. Im September hat er schrieb eine umfassende Übersicht über die Auswirkungen von KI auf die Rechtspraxis für die Sedona Conference, eine gemeinnützige Bildungsorganisation, die sich die Förderung der juristischen Ausbildung zum Ziel gesetzt hat.

Rodriguez sagte, einige der Befehle hätten einen technologiefeindlichen Ton. Da sich Richter in Beweis- und Offenlegungsfragen mit KI befassen müssen, „sollten wir dieses Signal nicht aussenden“, sagte er.

Er wies auch darauf hin, dass in einer Reihe von Anordnungen generative KI mit künstlicher Intelligenz in Verbindung gebracht werde, was ein viel umfassenderes Feld sei.

„Wenn wir nicht vollständig verstehen, was unsere Befehle wirklich sagen, sollten wir diese Art von Befehlen wahrscheinlich nicht eingeben“, sagte Rodriguez. Er sagte, dass staatliche Anwaltskammern und Ethikkommissionen besser geeignet seien, zu bestimmen, wie generative KI in der Rechtspraxis eingesetzt werden sollte.

Die Florida Bar ausgegeben am 13. November ein vorgeschlagenes Gutachten zur generativen KI-Nutzung, und die kalifornische Anwaltskammer genehmigte am 16. November Richtlinien für die KI-Nutzung durch Anwälte. Die Anwaltskammern der Bundesstaaten New Jersey und Texas sowie die American Bar Association haben Arbeitsgruppen eingerichtet, die untersuchen, wie KI funktioniert wird sich auf die Anwaltschaft auswirken.

Trotz der aktuellen Fallstricke der Technologie äußerten sich die meisten Richter optimistisch hinsichtlich der Fähigkeit der generativen KI, den Zugang zur Justiz zu erweitern und das Recht für unterbesetzte Prozessparteien in den kommenden Jahren zu demokratisieren.

„Immer mehr Mittelschichts- und andere Menschen werden faktisch von einer guten Rechtsvertretung ausgeschlossen“, sagte Vaden. „Die Möglichkeit, eine viel günstigere und in manchen Fällen möglicherweise kostenlose Option zu haben, die ihnen hoffentlich zuverlässige Ergebnisse zur Beantwortung grundlegender Rechtsfragen liefern kann, ist ein ausgesprochen willkommenes Format für die Rechtsbranche und ein willkommener Gegenpol zur ständig wachsenden Inflation privater Kanzleien.“ Anwaltspreise.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein