von dem Die KI hat mich dazu gebracht, es zu tun Abt

Wir alle erinnern uns an den berüchtigten Fall von Anfang des Jahres, bei dem Anwalt Steven Schwartz zugeben musste, dass er chatgpt verwendet hatte, um bei der Erstellung eines Schriftsatzes zu helfen (der dann von einem anderen Anwalt, einem Partner seiner Kanzlei, unterzeichnet wurde) und dass sich keiner der Anwälte darum gekümmert hatte um zu überprüfen, ob die Zitate erfunden waren (was sie waren). Schwartz musste 5.000 US-Dollar an Sanktionen zahlen und gibt bereitwillig zu, dass die Strafe darin besteht, dass sein Ruf nun „der Anwalt ist, der ChatGPT verwendet hat“.

Diese Geschichte ging so viral, dass man hoffen würde, dass dies bedeutet, dass die meisten Anwälte davon erfahren und verstanden haben, so etwas nicht zu tun. Kürzlich gab es jedoch eine andere Geschichte, die auf eine ähnliche Situation hindeutete. LAist hat die Details über einen berüchtigten Räumungsanwalt, der wegen erfundener Fälle in einer Akte bestraft wurde, von denen viele glauben, dass sie wahrscheinlich von der KI generiert wurden.

Auf den ersten Blick wirkt die Einreichung vom April glaubwürdig. Es ist richtig formatiert. Die Unterschrift von Block unten verleiht dem Bild einen Stempel seiner Autorität. Fallzitate werden bereitgestellt, um Blocks Argument dafür zu untermauern, warum der Mieter vertrieben werden sollte.

Doch als der Richter des Obersten Gerichtshofs von LA, Ian Fusselman, genauer hinsah, entdeckte er ein großes Problem. Zwei der im Schriftsatz genannten Fälle waren nicht real. Andere hätten nichts mit dem Räumungsrecht zu tun, sagte der Richter.

„Das war ein ganzes Gesetzeswerk, das erfunden wurde“, sagte Fusselman während der Sanktionsanhörung. „Es ist schwer zu verstehen, wie das passiert ist.“

Anscheinend glauben viele Leute, dass es sich um eine weitere Schwartz-Situation handelte, bei der ChatGPT Fälle erfand.

Siehe auch  Warum empfiehlt ChatGPT Lido DAO, VC Spectra und Monero XMR als ultimative Krypto-Diversifizierungsauswahl für den Herbst?

Aber in einem anderen Fall zeichnet sich eine noch stärkere „Anwalt nutzt GPT“-Geschichte ab. Der ehemalige Fugees-Star Pras Michel war wegen 10 Straftaten verurteilt Anfang dieses Jahres, aber er ist einen Antrag auf ein neues Verfahren gestellt hat, Er argumentierte teilweise damit, dass sein früherer Anwalt KI verwendet habe, um die Schlussplädoyers in dem Fall zu verfassen. In dem Antrag werden viele Argumente bezüglich behaupteter Probleme mit dem Verfahren vorgebracht, und die Argumente für die Unwirksamkeit der Anwälte umfassen auch eine Reihe von Argumenten.

Aber die KI behauptet … nun ja … stechen hervor. Das Argument ist nicht nur, dass Michels Anwälte KI nutzten, um die Schlussplädoyers zu verfassen, sondern dass sie Investoren des Unternehmens waren, das die KI hergestellt hat, weshalb sie diese genutzt haben:

Es ist nun offensichtlich, dass Kenner sich dazu entschieden hat, bei Michels Prozess mit einem noch nie zuvor verwendeten KI-Programm zu experimentieren, um das Schlussplädoyer zu verfassen, weil er und Israely offenbar ein nicht offengelegtes finanzielles Interesse an dem Programm hatten und es nutzen wollten Michels Prozess als Testfall zur Förderung des Programms und ihrer finanziellen Interessen. Tatsächlich heißt es in der Pressemitteilung, die das KI-Unternehmen nach dem Prozess herausgab, in der Kenner zitiert wird, der das KI-Programm lobt, dass das Unternehmen das Programm „mit dem Technologiepartner CaseFile Connect“ gestartet habe. Zeidenberg Decl. ¶ 7 & Bsp. C. Auf der CaseFile Connect-Website werden die Eigentümer nicht identifiziert, die Adresse des Hauptbüros lautet jedoch 16633 Ventura Blvd., Suite 735. Auf der Website der California Bar wird angegeben, dass es sich dabei um die Büroadresse von Kenners Anwaltskanzlei handelt. Id., Ex. F. Offene Quellen weisen außerdem darauf hin, dass die dritte Büroadresse, die auf der Website von CaseFile Connect bereitgestellt wird, mit Kenners Co-Anwalt und Freund Israely in Verbindung steht. Id., Ex. G. Der Grund, warum sie das experimentelle Programm während des Prozesses gegen Michel nutzten und dann in einer Pressemitteilung damit prahlten, ist jetzt klar: Sie wollten das KI-Programm fördern, weil sie offenbar ein finanzielles Interesse daran hatten. Sie taten dies, obwohl sich dieses Experiment nachteilig auf Michels Verteidigung vor Gericht auswirkte und einen außergewöhnlichen Interessenkonflikt schuf.

Um ehrlich zu sein, enthält der Antrag nicht viel mehr über die KI, wie sie tatsächlich eingesetzt wurde oder ob sie schlechte Argumente vorgebracht hat. Es gibt viel mehr Details dazu, wie der Richter Michel mitteilte, dass es möglich sei, dass sein Anwalt Interessenkonflikte habe und wie diese gelöst werden müssten.

Siehe auch  So nutzen Sie ChatGPT-4, LLaMa-2, DaVinci kostenlos, ohne Registrierung und VPN in einer Anwendung auf dem PC

Allerdings habe ich mich gefragt, ob es in Zukunft noch mehr Klagen dieser Art geben wird, wenn jemand einen Fall verliert und sich auf eine ineffektive Rechtsberatung berufen möchte. Werden sie einfach irgendein zufälliges „Und er benutzte KI!“ einwerfen? damit es überzeugender klingt?

Abgelegt unter: AI, AI-Anwälte, ChatGPT, David Kenner, Dennis Block, Anwälte, Pras Michel Unternehmen: casefile connect

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein