Gettyimages 1238143476 E1687538397737

Anwälte, die juristische Dokumente mit falschen, von chatgpt generierten Zitaten eingereicht haben, wurden mit einer Geldstrafe belegt. Erik McGregor/LightRocket über Getty Images

Die beiden Anwälte, die vom KI-Chatbot ChatGPT erstellte gefälschte Rechtsrecherchen eingereicht hatten, wurden gerade mit einer Geldstrafe von 5.000 US-Dollar und einer Beschimpfung durch einen Bundesrichter belegt. Die Anwälte reichten im Mai einen juristischen Schriftsatz zu einem Fall einer Flugunfallverletzung ein, der mit Zitaten aus nicht existierenden Fällen gespickt war. Die Anwälte Steven A. Schwartz und Peter LoDuca von Levidow, Levidow & Oberman verteidigten zunächst ihre Forschung, auch nachdem der gegnerische Anwalt darauf hingewiesen hatte, dass es sich um eine Fälschung handelte, entschuldigten sich jedoch schließlich beim Gericht.

Schwartz, der den von ChatGPT erstellten Brief erstellt hat, hatte bereits am 8. Juni eine Gerichtsverhandlung, in der er sein Vorgehen erläuterte. Bei der Anhörung sagte er, er wisse nicht, dass ChatGPT rechtliche Präzedenzfälle erfinden könne, und fügte hinzu, dass er gedemütigt und reuig sei.

„Ich habe von dieser neuen Website gehört, von der ich fälschlicherweise angenommen habe, dass es sich um eine Supersuchmaschine handelt“, sagte Schwartz genannt.

Am Freitag reichte der US-Bezirksrichter Kevin Castel, der den Fall in Manhattan leitete, einen Sanktionsbeschluss gegen Schwartz und LoDuca ein, in dem es heißt, dass gefälschte Rechtsgutachten Zeit und Geld verschwenden, den Ruf von Rechtsexperten schädigen und dem Mandanten authentischen Rechtsbeistand vorenthalten.

„Technologische Fortschritte sind an der Tagesordnung und es ist nichts grundsätzlich Falsches daran, ein zuverlässiges Werkzeug der künstlichen Intelligenz zur Unterstützung einzusetzen“, sagte der Sanktionen lesen. „Aber die bestehenden Regeln schreiben den Anwälten eine Gatekeeper-Rolle vor, um die Richtigkeit ihrer Unterlagen sicherzustellen.“

Siehe auch  Fordern Sie ChatGPT heraus! Das größte Sprachmodell der Geschichte! Gerüchten zufolge entwickelt Amazon seinen eigenen Olympus AI-ePrice.HK

In der Anordnung heißt es weiter, dass die Anwälte und die Kanzlei „ihre Verantwortung aufgegeben“ hätten, als sie den 10-seitigen Schriftsatz voller nicht vorhandener Zitate und Zitate einreichten.

Die Sanktionen rügten die Anwälte auch dafür, dass sie mehr als zwei Monate lang, von März bis Mai, zu ihren Recherchen standen und nicht die Wahrheit zugaben, selbst nachdem das Gericht und die gegnerischen Anwälte ihre Beweise in Frage gestellt hatten.

Der Richter verhängte gegen Schwartz und LoDuca eine Geldstrafe von 5.000 US-Dollar als „Abschreckung und nicht als Strafe oder Entschädigung“. In der Anordnung wird ausdrücklich darauf hingewiesen, dass der Einsatz von KI nicht verboten werden sollte, denn „gute Anwälte erhalten angemessenerweise Unterstützung von jungen Anwälten, Jurastudenten, Vertragsanwälten, juristischen Enzyklopädien und Datenbanken wie Westlaw und LexisNexis“, und KI ist die neueste Ergänzung dazu Toolkit. Der Richter betont aber, dass alle KI-gestützten oder generierten Einreichungen auf ihre Richtigkeit überprüft werden müssen.

Der Vorfall zwischen Schwartz und LoDuca ereignete sich nach einem Goldman Sachs-Vorfall Bericht Im März sagte KI, dass KI 44 % aller juristischen Arbeiten automatisieren könne. In einem weiteren Märzbericht von Forschern der Princeton University, der New York University und der University of Pennsylvania wurde festgestellt, dass „die wichtigsten Branchen, die von Fortschritten in der Sprachmodellierung betroffen sind, Rechtsdienstleistungen sowie Wertpapiere, Rohstoffe und Investitionen sind.“

Ein Großteil der juristischen Arbeit umfasst die Recherche vergangener Fälle und Präzedenzfälle, die Überprüfung von Verträgen und das Verfassen von Dokumenten – alles, was ChatGPT exponentiell schneller erledigen kann als ein Mensch. Die Sanktionen vom Freitag unterstreichen jedoch, dass KI immer noch ungenau und anfällig für Halluzinationen oder die Fälschung von Informationen ist.

Siehe auch  Schwer am Morgen! Das epische Update von Googles ChatGPT, das neue Modell, holt GPT-4 ein und wird die Suche vollständig untergraben

„Ich versuche die Menschen am meisten zu warnen, was wir das ‚Halluzinationsproblem‘ nennen“, sagte Sam Altman, CEO von ChatGPTs Hersteller OpenAI, im März gegenüber ABC News, kurz nachdem Schwartz seinen Auftrag erstellt hatte. „Das Modell wird Dinge souverän darlegen, als wären sie vollständig erfundene Tatsachen.“

Levidow, Levidow & Oberman antworteten nicht sofort ReichtumBitte um Stellungnahme. Der Richter wies die ursprüngliche Klage gesondert mit der Begründung ab, sie sei verspätet.

4.7/5 - (164 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein