Technologie

Junges Mädchen Vor Dem Computer Mit Runzelnder Brauner Tasche
Morgen Mittag werden die unglücklichen Anwälte, die sich per chatgpt auf die Titelseite der New York Times gesetzt haben, vor dem US-Bezirksrichter Kevin Castel erscheinen, um zu erklären, warum sie nicht sanktioniert werden sollten.

Der Fall der beiden Anwälte OK Boomer, die sich in die Suppe stürzen, ist seit zwei Wochen eine Pointe und verschafft uns allen eine dringend benötigte Pause von der Politik und dem endlosen Kulturkampf, der jeden Nachrichtenzyklus beherrscht. Sind diese Typen Trumper? Covid-Truther? Keine Ahnung, egal!

Wir wissen, dass sie sich auf einen KI-Chatbot verlassen haben, um zu untersuchen, ob die zweijährige Verjährungsfrist in einem internationalen Vertrag durch die dreijährige staatliche Bestimmung übertroffen werden könnte oder ob sie alternativ durch einen Konkurs beendet werden könnte. Wir wissen, dass sie auf einen Antrag auf Abweisung mit der Berufung auf mehrere nicht existierende Fälle reagierten. Und wir wissen, dass die gegnerischen Anwälte, als sie darauf aufmerksam gemacht wurden, gefälschte, von ChatGPT generierte Meinungen erstellten und diese in einer eidesstattlichen Erklärung an das Gericht übermittelten.

Ihren eigenen Angaben zufolge ist Steven Schwartz ein erfahrener Anwalt für Personenschäden bei der New Yorker Anwaltskanzlei Levidow, Levidow & Oberman. Als sein Schadensersatzverfahren gegen Avianca Airlines aufgrund eines Vorfalls auf einem internationalen Flug im Jahr 2019 an ein Bundesgericht verwiesen wurde, übergab er es an seinen Kollegen Peter LoDuca, der im Gegensatz zu Schwartz als Anwalt im südlichen Bezirk von New York zugelassen war. Aber Schwartz setzte seine Arbeit fort und verfasste unter anderem seine Antwort auf Aviancas Antrag auf Abweisung wegen Ablauf der Verjährungsfrist.

Siehe auch  Die mögliche Integration von ChatGPT in Regierungsdienste

In einem 23. Mai eidesstattliche Erklärung und ein 6. Juni ErklärungSchwartz übernahm die Verantwortung für die falschen Unterlagen und schwor, dass LoDuca keine Kenntnis davon gehabt habe, dass die Dokumente ungenau seien. Levidow, das einen externen Anwalt engagiert hat, reichte eine lange Klage ein Antwort gegen die Show-Cause-Order, in der sie behauptet, die Fehler seien völlig unbeabsichtigt gewesen, und daher können sie und ihre Anwälte nicht gemäß Regel 11(c)3 sanktioniert werden, die nicht nur Inkompetenz, sondern tatsächliche Bösgläubigkeit voraussetzt.

„Das Gesetz in diesem Bezirk ist klar: Die Verhängung von sua sponte-Sanktionen gemäß Regel 11 erfordert die Feststellung subjektiver Bösgläubigkeit und nicht nur die Feststellung, dass das Verhalten objektiv unangemessen war“, schreiben sie.

Zur Untermauerung fügen sie Folgendes bei: Chat Protokoll das replizieren Aufforderungen von Schwartz verwendet, um die ihm zugrunde liegende Forschung zu generieren Opposition zu Aviancas Antrag auf Abweisung. Sie argumentieren, dass es sich um eine gutgläubige Lösung für eine kleine Firma handelte, die sich weder Lexis noch Westlaw leisten konnte und deren Zugang zu Bundesentscheidungen von Fastcase abgeschnitten worden war. Und außerdem wurden sie so gründlich gedemütigt, dass berufliche und/oder finanzielle Sanktionen unnötig sind.

Der Anwalt, Herr Schwartz, hatte keine Ahnung, dass dies geschah, selbst als der gegnerische Anwalt ihn darauf aufmerksam machte, dass er die Fälle nicht lokalisieren konnte. ChatGPT versicherte ihm sogar, dass die Fälle echt seien und auf Westlaw und LexisNexis zu finden seien, und lieferte weiterhin ausführliche Auszüge und günstige Zitate. Da Herr Schwartz und die Kanzlei nun wissen, dass ChatGPT lediglich Fälle erfunden hat, sind sie wirklich beschämt; Sie hatten nicht die Absicht, das Gericht zu betrügen, und die bloße Anschuldigung – die in Hunderten (wenn nicht Tausenden) Artikeln und Online-Beiträgen wiederholt wurde – hat ihrem Ruf irreparablen Schaden zugefügt. Sie haben sich in früheren Eingaben beim Gericht entschuldigt und tun dies auch hier erneut.

Was sie nicht Die einzige Aufgabe besteht darin, die Chat-Protokolle anzuhängen, aus denen hervorgeht, wie Schwartz ChatGPT dazu brachte, die gefälschten Meinungen zu generieren, die LoDuca am 25. April dem Gericht vorlegen ließ, nachdem der gegnerische Anwalt erklärt hatte, dass sie nicht existierten, und der Richter Castel ihnen befohlen hatte, sie auszuspucken. Tatsächlich ist der Auftrag in Bezug auf diesen Teil des Prozesses, der offenbar so mühsam war, dass LoDuca eine zusätzliche Woche brauchte, um aus dem „Urlaub“ zurückzukommen, ziemlich ungenau.

Siehe auch  Der monatliche Umsatz von OpenAI hat 80 Millionen US-Dollar überschritten und liegt damit weit über dem Gesamtumsatz des letzten Jahres – ezone.hk – IT Times – Branchenschlagzeilen

„Herr. Schwartz druckte zwei der acht Fälle von Fastcase aus und kehrte für die restlichen sechs Fälle zu ChatGPT zurück“, schreiben sie und umgehen dabei sorgfältig das Eingeständnis, dass Fastcase durchaus in der Lage sei, die beiden zu produzieren real Die zitierten Entscheidungen des US-Bezirksgerichts hätten jeden ehrlichen Praktiker darauf hingewiesen, dass die beiden zitierten Entscheidungen des elften Bezirks bei Fastcase nicht verfügbar waren weil sie hat nicht existiert. Zumal Schwartz das bereits von Aviancas Anwälten und dem Gericht erfahren hatte!

Kurz gesagt, während LoDuca, Schwartz und Levidow Anerkennung für die „umgehende Anerkennung“ wünschen[ing] ihre Fehler“, gibt es immer noch eine große Lücke in der Mitte dieses Falles, in der der Chatbot, der zuvor nur drei Absatzauszüge der erfundenen Meinungen ausspuckte, plötzlich die Richtung änderte und anfing, dreiseitige Meinungen zu produzieren.

Ich schätze, wir werden morgen herausfinden, ob Richter Castel das auch bemerkt hat.

Mata v. Avianca [Docket via Court Listener]


Liz Dye lebt in Baltimore, wo sie über Recht und Politik schreibt und in der US-amerikanischen TV-Serie auftritt Eröffnungsargumente Podcast.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein