Einer Anwältin in einem Vorort von New York City drohen mögliche Sanktionen, weil sie chatgpt verwendet hat, um eine nicht existierende staatliche Gerichtsentscheidung zu generieren, die sie in einer Klageschrift zitiert hat.
Das Verhalten des Anwalts Jae Lee von der JSL Law Offices in Uniondale, New York, blieb „deutlich unter den grundlegenden Pflichten eines Anwalts“, urteilte das US-Berufungsgericht für den 2. Gerichtsbezirk am Dienstag. Das Gericht verwies Lee an ein Beschwerdegremium, das mögliche Disziplinarmaßnahmen wie Geldstrafen und Suspendierungen prüft.
„Ich verpflichte mich, die höchsten professionellen Standards einzuhalten und diese Angelegenheit mit der Ernsthaftigkeit anzugehen, die sie verdient“, sagte Lee in einer E-Mail-Antwort auf eine Frage. Sie sagte, sie könne „angesichts der Vertraulichkeit des Disziplinarverfahrens“ keine weiteren Fragen beantworten.
Lee schließt sich anderen Anwälten an, die von Gerichten wegen der unangemessenen Verwendung von ChatGPT und ähnlichen Tools angeklagt wurden, die künstliche Intelligenz nutzen, um nach Aufforderung eines Benutzers Aufsätze oder andere Informationen zu erstellen.
Der US-Bezirksrichter P. Kevin Castel verhängte im vergangenen Juni eine Geldstrafe von 5.000 US-Dollar gegen zwei Anwälte aus Manhattan, Steven Schwartz und Peter LoDuca, weil sie einen von ChatGPT erstellten Gerichtsbrief eingereicht hatten, der gefälschte Zitate aus nicht existierenden Fällen enthielt. Donald Trumps früherer Anwalt Michael Cohen hat laut Gerichtsakten, die letzten Monat veröffentlicht wurden, unabsichtlich gefälschte Fälle einbezogen, die von Googles KI-Tool generiert wurden, in einem Brief, in dem er für seine Freilassung aus der Nachgefängnisaufsicht plädierte.
Im Fall des 2. Gerichtsbezirks legte Lee Berufung gegen die Abweisung der Klage ihres Mandanten wegen ärztlicher Kunstfehler durch ein Bezirksgericht ein. In der Berufung führte sie zwei Fälle an, darunter einen Bourguignon gegen Coordinated Behavioral Health Servicesdas habe es nicht gegeben, sagten die Richter des 2. Gerichtsbezirks.
Lee teilte dem Gericht mit, sie habe „Schwierigkeiten gehabt, einen relevanten Fall zu finden“, bevor sie sich an ChatGPT wandte, was auf eine Fälschung schließen ließ Burgundisch Fall. Die Richter kamen zu dem Schluss, dass Lee „die Gültigkeit der von ihr zitierten (nicht existierenden) Entscheidung weder gelesen noch anderweitig bestätigt hat“.
Der Fall ist Park gegen Kim2. Stromkreis, 22-02057, 30.01.24.