Ein Anwalt aus Colorado wurde suspendiert, weil er künstliche Intelligenz eingesetzt hatte, um in einem juristischen Brief gefälschte Fallzitate zu erstellen, und dann darüber gelogen hatte.

Die Verhängung einer Strafe gegen Zachariah C. Crabill durch den vorsitzenden Disziplinarrichter ist offenbar die erste, die auf den missbräuchlichen Einsatz von KI schließen lässt. Die Leiterin der Anwaltsaufsichtsbehörde Colorados, Jessica E. Yates, sagte gegenüber Colorado Politics, ihr seien keine ähnlichen Fälle im Bundesstaat bekannt.

Der Oberste Gerichtshof des Bundesstaates hat sich noch nicht zu den rechtlichen und beruflichen Dilemmata der KI geäußert, aber Anfang des Jahres räumte Richterin Melissa Hart während einer Podiumsdiskussion ein, dass das Gericht verpflichtet sei, sich über neue Technologien zu informieren.

„Wir müssen darüber nachdenken, wie wir unsere Regeln ändern, um dem Rechnung zu tragen, und darüber nachdenken, was Anwälte tun müssen“, sagte sie. „Aber wir werden auch Fälle haben, die diese Fragen aufwerfen, und wir werden Schriftsätze erhalten, die von künstlicher Intelligenz verfasst wurden. … Es wird effektiv als Mitarbeiter des Anwalts fungieren.“

In der vereinbarten Darstellung von Crabill und den Anwaltsaufsichtsbehörden, die beim Büro des vorsitzenden Disziplinarrichters eingereicht wurde, hat Crabills Kanzlei im April einen Mandanten eingestellt, der sich zuvor selbst vertreten hatte. Ein Richter aus El Paso County lehnte den Antrag des Mandanten auf ein summarisches Urteil in einem Zivilverfahren ab, und Crabills Aufgabe bestand darin, einen Antrag auf Aufhebung des Urteils zu verfassen.

Crabill „hatte noch nie einen MSA verfasst. Er ging frühere Anträge der Kanzlei durch und suchte nach Vorlagen für die Argumentation zur Aufhebung des Urteils“, heißt es in der Akte.

Siehe auch  Studie: Hacker nutzen ChatGPT, um Ihre privaten Daten zu stehlen

Nachdem Crabill die Vorlage mit fallspezifischen Details ausgefüllt hatte, wollte er seine rechtlichen Zitate untermauern. Er nutzte das KI-Programm chatgpt, um nach Fällen zu suchen, die die Position seines Mandanten zu stützen schienen. In der Überzeugung, dass er das Geld seines Kunden effizient einsetzte und kurz vor Ablauf der Frist seinen eigenen Stress reduzierte, fügte er die Zitate zu KI-Fällen seinem Brief hinzu, ohne deren Richtigkeit zu überprüfen.

Am Morgen einer Anhörung vor Richter Eric Bentley vom Bezirksgericht El Paso County stellte Crabill fest, dass sein Schriftsatz falsche Zitate enthielt.

„Ich denke, alle meine Fallzitate aus ChatGPT sind Müll“, schrieb er seinem Rechtsanwaltsgehilfen. „Ich habe keine Ahnung, was ich tun soll. Ich versuche jetzt, eine aktuelle Rechtsprechung zu unseren Gunsten zu finden, um sie dem Richter vorzulegen.“

Zachariah Crabill sendet Textnachrichten über die Zitierung von KI-Fällen

Das SMS-Gespräch zwischen Anwalt Zachariah C. Crabill und seinem Rechtsanwaltsgehilfen.

Bei der Anhörung am 5. Mai war Bentley derjenige, der als erster die nicht existierenden Fälle erwähnte. Crabill entschuldigte sich für die Fehler und gab „in diesem Fall einem Rechtspraktikanten, der, glaube ich, einen Fehler gemacht hat“, die Schuld.

Crabill führte seine unwahre Reaktion später darauf zurück, dass er in „Panik“ geriet. Er sagte, es sei ihm „nie bewusst geworden“, dass KI-Technologie täuschen könnte. Crabill reichte später einen korrigierten Antrag ein, den Bentley aus anderen Gründen als den „fiktiven Fallzitaten“ ablehnte.

Crabill und der Anwalt der Anwaltskanzlei waren sich einig, dass er seine beruflichen Pflichten, kompetent, gewissenhaft und ehrlich zu handeln, verletzt hat. Da er zum Zeitpunkt seines Fehlers nicht über Disziplin verfügte, Verantwortung übernahm und persönliche Probleme hatte, einigten sich die Parteien auf eine zweijährige Suspendierung, von der Crabill nur 90 Tage absitzen sollte, sofern er ansonsten eine Probezeit absolvierte.

Siehe auch  OpenAI hat ChatGPT aufgrund einer Sicherheitslücke, die das Lesen kostenpflichtiger Inhalte ermöglichte, vom Internet getrennt

Der vorsitzende Disziplinarrichter Bryon M. Large hat die Bestrafung in einem Beschluss vom 22. November genehmigt.

Sean D. Williams, ein Forscher in professionelle und technische Kommunikation an der Arizona State University, sagte KRDO im Juni dass Nutzer künstlicher Intelligenz nicht darauf vertrauen können, dass sie bei Eingabeaufforderungen immer genaue Ergebnisse liefert.

„Sobald wir mit den Informationen, die wir haben, vertraut und zufrieden sind, gehen wir davon aus, dass die Informationen, die sie uns geben, korrekt sind“, sagte Williams. „Dieser Fall zeigt, dass es nicht stimmte, und das ist die Kehrseite.“

Anfang des Jahres ein Bundesrichter in New York Sanktionen verhängt für zwei Anwälte, die einen KI-Chatbot verwendeten, der ebenfalls falsche Fallzitate generierte. Der Richter wies darauf hin, dass ein solches Fehlverhalten die Gegenpartei dazu zwingt, Zeit und Geld für die Aufdeckung der Täuschung aufzuwenden, die Argumente der Mandanten zu schwächen und Skepsis gegenüber dem Rechtssystem zu fördern.

„Und ein zukünftiger Prozessbeteiligter könnte versucht sein, sich einem Gerichtsurteil zu widersetzen, indem er unaufrichtig Zweifel an seiner Echtheit geltend macht“, schrieb P. Kevin Castel, leitender Richter am US-Bezirksgericht.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein