Mittlerweile ist die Geschichte zweier New Yorker Anwälte bekannt, die wegen der Berufung auf nicht existierende Fälle, die mit dem Tool für künstliche Intelligenz („KI“) erstellt wurden, einer Untersuchung unterzogen wurden chatgpt-court-filing-avianca/“>National (Und International) Schlagzeilen. Ende letzten Monats verhängte ein Bundesrichter im Südbezirk von New York gegen die Anwälte und ihre Kanzlei eine Sanktion in Höhe von 5.000 US-Dollar. Die Gerichte Entscheidung (Roberto Mata v. Avianca, Inc.Nr. 22-cv-1461-PKC (SDNY, 22. Juni 2023) (ECF Nr. 54)) ist eine demütigende Erinnerung sowohl an die Verantwortung eines Anwalts bei der Gewährleistung der Richtigkeit seiner Unterlagen als auch an die Grenzen bestimmter Technologien in der Anwaltsberuf.

Das Hauptaugenmerk der Gerichtsentscheidung lag auf dem Verhalten der Anwälte und nicht auf einem Angriff auf den Einsatz von KI-Technologie im Allgemeinen. Wie das Gericht eingangs erklärte: „Technologische Fortschritte sind an der Tagesordnung und es ist nichts grundsätzlich Unangemessenes daran, ein zuverlässiges Werkzeug der künstlichen Intelligenz zur Unterstützung einzusetzen.“ Die bestehenden Vorschriften schreiben den Anwälten jedoch eine Gatekeeper-Rolle vor, um die Richtigkeit ihrer Unterlagen sicherzustellen.“ Ausweis. zu 1. Das Gericht erklärte, dass das Problem der Anwälte, die von ChatGPT generierte gefälschte Fälle zitieren, dadurch verschlimmert wurde, dass die Anwälte „weiterhin zu den falschen Meinungen standen, nachdem gerichtliche Anordnungen ihre Existenz in Frage gestellt hatten“. Ausweis. Tatsächlich kam das Gericht zu dem Schluss, dass die Anwälte in böser Absicht gehandelt und gegen ihre Pflichten gemäß Regel 11 verstoßen haben, indem sie sich unter anderem weiterhin für die gefälschten Fälle und die auf diesen Fällen basierenden rechtlichen Argumente eingesetzt haben, selbst nachdem ihr Gegner und das Gericht dies mitgeteilt hatten Die Fälle konnten nicht gefunden werden. Ausweis. am 29.

Siehe auch  Kommen Sie mit dem neuen Datenanalyse-Plugin von ChatGPT voran

Die Entscheidung des Gerichts bekräftigt nicht nur die Pflichten der Anwälte gegenüber dem Gericht, ihren Gegnern und ihren Mandanten. Ausweis. bei 1-2. Es bietet auch ein reales Beispiel für die aktuellen Grenzen der KI bei der Durchführung von Rechtsrecherchen. Das Gericht beschrieb die von ChatGPT generierten gefälschten Entscheidungen ausführlich und stellte fest, dass sie zwar „einige Merkmale aufweisen, die oberflächlich mit tatsächlichen Gerichtsentscheidungen übereinstimmen“, die rechtliche Analyse in einer von ihnen jedoch „Kauderwelsch“ sei, die Verfahrensgeschichte „grenzt an etwas.“ Unsinn“, und die Entscheidung „endet abrupt ohne Schlussfolgerung.“ Ausweis. um 10-11. Als einer der Anwälte, die diese gefälschten Fälle zitierten, das KI-Tool nach ihrer Legitimität fragte, lautete die Antwort von ChatGPT, dass die Fälle alle real seien und in juristischen Forschungsdatenbanken wie Westlaw und LexisNexis gefunden werden könnten. Ausweis. bei 41-43. Das KI-Tool war einfach falsch. Diese unglückliche Episode bestätigt, dass es bei juristischer Recherche, Analyse und Interessenvertretung (die offensichtlich allesamt Schlüsselaspekte der Arbeit eines Anwalts sind) immer noch keinen Ersatz für die menschliche Beteiligung und Beteiligung gibt.

Damit soll das Weitverbreitete nicht außer Acht gelassen werden Begeisterung für KI im Allgemeinen in den letzten Jahren. Tatsächlich ist der routinemäßige Einsatz bestimmter KI-Technologien für viele Anwälte mittlerweile alltäglich (denken Sie an …). prädiktive Codierung in eDiscovery). ChatGPT war es jedoch gestartet vor weniger als einem Jahr. Doch es gab sie bereits sprechen davon, dass Anwälte eines Tages „überflüssig“ werden. Dieser Tag ist, wie oben gezeigt, noch nicht gekommen. Tatsächlich war ChatGPT während der Legalweek-Konferenz im März 2023 in New York dabei gemeldet unter „Halluzinationen“ zu leiden, was bedeutet, dass „manchmal die Technologie Tatsachen ‚vorhersagt‘, die in der Realität keine tatsächliche Grundlage haben.“ Zusätzlich zu diesen „Halluzinationen“ befürchten einige Anwaltskanzleien, dass die Verwendung von ChatGPT das Risiko birgt, dass vertrauliche Kundeninformationen preisgegeben werden eine Anwaltskanzlei vollständiges Verbot der Nutzung von ChatGPT im Büro. Angesichts der ernsthaften Bedenken, die der Einsatz von ChatGPT in der kurzen Existenz des Tools hervorgerufen hat, wird der weitere Weg für viele Anwaltskanzleien wahrscheinlich darin liegen vorsichtig balancieren die Vorteile, die ChatGPT (und andere KI-Tools) bieten können, und ergreifen gleichzeitig Maßnahmen zum Schutz vor den Risiken, die durch die Abhängigkeit von solchen Tools entstehen.

Siehe auch  ChatGPT beeinträchtigt (auch) Ihre Auswahl an Reisezielen ...

[View source.]

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein