Nach Angaben der New York Times nutzte ein Anwalt (Rechtsrecherche) in einem Gerichtsverfahren chatgpt und stellte falsche Informationen dar. Dieser Vorfall warnte vor den potenziellen Risiken künstlicher Intelligenz im Rechtsbereich.

In einem Fall, in dem ein Mann eine Fluggesellschaft wegen seiner Verletzungen verklagte, reichte das Anwaltsteam der Kläger eine kurze Klage ein und stützte sich dabei auf mehrere frühere Gerichtsverfahren, um ihre Argumentation zu veranschaulichen und eine Grundlage für ihren Anspruch zu schaffen. Die Anwälte der Verteidigung stellten jedoch fest, dass einige der angeführten Fälle nicht vorlagen, und informierten umgehend den Vorsitzenden Richter.

Der Prozessrichter war schockiert, nannte es „beispiellos“ und ordnete eine Erklärung der Rechtsabteilung des Klägers an.

Steven Schwarz, einer der Anwälte der Kläger, gab zu, dass er ChatGPT zum Abrufen juristischer Literatur verwendet hatte. In einer schriftlichen Erklärung zeigte sich Schwarz sehr reuig und sagte: „Ich habe noch nie zuvor künstliche Intelligenz zum Abrufen juristischer Literatur verwendet und tue es auch nicht.“ wissen Sie es. Der Inhalt kann falsch sein.

Zu den beim Gericht eingereichten Dokumenten gehören Screenshots von Gesprächen zwischen Schwarz und ChatGPT, in denen Schwarz nach der Richtigkeit des Falles Varghese gegen China Southern Airlines Co Ltd. fragte. ChatGPT antwortete bejahend und erklärte, dass der Fall in juristischen Referenzdatenbanken wie LexisNexis und Westlaw dokumentiert sei. Die Folgeergebnisse zeigten jedoch, dass der Fall falsch war, und weitere Untersuchungen ergaben, dass ChatGPT unabhängig sechs Fälle erfunden hatte.

Angesichts des Vorfalls werden die beiden beteiligten Anwälte Peter LoDuca und Steven Schwarz von LLP Levidow, Levidow & Oberman am 8. Juni in einer Disziplinaranhörung über ihr Vorgehen informiert und müssen möglicherweise suspendiert werden. Dieser Vorfall hat in der juristischen Gemeinschaft Diskussionen über den angemessenen Einsatz von Tools der künstlichen Intelligenz in der Rechtsforschung und damit verbundene Maßnahmen zur Verhinderung ähnlicher Situationen ausgelöst.

Siehe auch  ChatGPT im Visier der Behörden in den USA? Verbraucherschutzbehörde ermittelt gegen OpenAI

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein