Das vielbeachtete Unglück von Steven Schwartz und Peter LoDuca hat möglicherweise gerade einen anderen Anwalt vor dem gleichen Schicksal bewahrt. VIELLEICHT. Schwartz nutzte chatgpt bekanntermaßen, um Rechtsrecherchen durchzuführen und auf einen Abweisungsantrag zu antworten, und sein Kollege Peter LoDuca unterzeichnete die Bestätigung mit seinem Namen, bevor er sie an das Bundesgericht weiterleitete. Das Problem: Keiner dieser Witzbolde machte sich die Mühe, die von ChatGPT bereitgestellten Fallzitate unabhängig nachzuschlagen. Stattdessen verschlimmerten sie den Fehler, indem sie ChatGPT offenbar aufforderten, die Recherche zu bestätigen, was so ist, als würde sie Donald Trump bitten, zu bestätigen, dass er nach geheimen Dokumenten gesucht hat. Immer wenn das generative KI-Tool tiefer graben kann, wird es das tun. Nachdem ChatGPT oberflächlich reale, aber völlig falsche Meinungen ausgespuckt hatte, reichten die Anwälte diese ein und stecken nun in einer Menge Ärger.

Der Anwalt aus Colorado Springs, Zachariah Crabill, könnte diesem Schicksal gerade noch entgehen. Nachdem er einen Antrag auf Aufhebung eines summarischen Urteils gestellt hatte, entschied der junge Anwalt um sicherzustellen, dass ChatGPT nicht nur versucht hatte, ihn nach Sanctionsville zu führen. Auf der Grundlage seiner Folgemaßnahmen teilte er dem Gericht mit, dass sich der Antrag auf von ChatGPT heraufbeschworene Scheinfälle beziehe.

„Angesichts der Genauigkeit zuvor bestätigter Antworten und der offensichtlichen Genauigkeit der Zitate aus der Rechtsprechung kam mir nie der Gedanke, dass diese Technologie irreführend sein könnte“, sagte Crabill in Gerichtsdokumenten.

Crabill nutzte die Plattform zunächst zur Recherche einfacher Fragen, die sie präzise beantwortete. Das war alles, was er brauchte, um den Ergebnissen seiner nachfolgenden Recherchen zu vertrauen … auch wenn diese „Dutzende“ nicht existierende Fälle ausspuckten. Crabill behauptet, den Fehler am Tag der Anhörung erkannt zu haben.

Siehe auch  ChatGPT hat ein Gesicht bekommen und es ist super seltsam

Leider hatte auch der Richter es bereits herausgefunden und drohte mit einer Klage gegen den Anwalt. Wir werden sehen, wie viel Nachsicht Crabill erhält, weil er sich nicht verdoppelt und darauf vertraut, dass ChatGPT ihn niemals anlügen würde.

Wieder einmal ist es ein Fehler, diese Fehler auf ChatGPT zu schieben. Rechtsanwälte sind verpflichtet, ihre Arbeit zu überprüfen. Es ist nichts Falsches daran, das System zu bitten, eine Frage zu beantworten, aber was auch immer der Bot ausspuckt, der Anwalt muss Lexis oder Westlaw oder Fastcase oder, verdammt noch mal, die physischen Bücher angreifen, um es mit der Realität zu vergleichen.

Vorzugsweise Vor Einreichung des Schriftsatzes.

Der Anwalt aus Colorado Springs sagt, ChatGPT habe gefälschte Fälle erstellt, die er in Gerichtsdokumenten zitiert habe [KRDO]

Früher: Aus Liebe zu allem, was heilig ist, hören Sie auf, ChatGPT für diesen schlechten Brief verantwortlich zu machen Anwälte, die ChatGPT zur Fälschung von Fällen nutzten, überlassen sich der Gnade des Gerichts


KopfschussJoe Patrice ist leitender Redakteur bei Above the Law und Co-Moderator von Denken wie ein Anwalt. Sie können uns jederzeit Tipps, Fragen oder Kommentare per E-Mail senden. Folgt ihm weiter Twitter wenn Sie sich für Recht, Politik und eine gesunde Portion Nachrichten aus dem Hochschulsport interessieren. Joe fungiert auch als Geschäftsführer bei RPN Executive Search.

Crm-Banner

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein