Neuigkeiten von ChinaZ.com vom 25. Juni:Ein US-Bundesrichter verhängte am Donnerstag in einem beispiellosen Fall eine Geldstrafe von 5.000 US-Dollar gegen zwei Anwälte und eine Anwaltskanzlei, nachdem chatgpt beschuldigt wurde, im Rahmen einer Klage wegen Flugunfallschäden falsche rechtliche Recherchen vorgelegt zu haben.

Richter P. Kevin Castel sagte, sie hätten in böser Absicht gehandelt. Aber er begrüßt ihre Entschuldigungen und Abhilfemaßnahmen und erklärt, warum keine strengeren Sanktionen erforderlich sind, um sicherzustellen, dass sie oder andere aufgrund von KI-Tools keine falschen Rechtsgeschichten mehr erstellen.

(Das Profilbild dient nur als Referenz)

„Technologische Fortschritte sind an der Tagesordnung und es ist grundsätzlich nichts Unrechtes daran, zuverlässige Tools der künstlichen Intelligenz zur Unterstützung einzusetzen“, schrieb Castel. „Aber die aktuellen Regeln geben den Anwälten einen Gatekeeper und eine begrenzte Rolle, um die Richtigkeit ihrer Dokumente sicherzustellen.“

Die Anwälte und ihre Kanzlei Levidow, Levidow & Oberman „hielten weiterhin an falschen Rechtsmeinungen, Dokumenten mit falschen Zitaten und Zitaten fest, die nicht existierten, selbst als Gerichtsbeschlüsse ihre Existenz in Frage stellten“, sagte der Richter.

In einer Erklärung sagte die Anwaltskanzlei, sie werde der Anordnung von Castel nachkommen, fügte jedoch hinzu: „Wir respektieren die Feststellungen des Gerichts, dass irgendjemand in unserer Kanzlei in böser Absicht gehandelt hat, und wir haben uns beim Gericht und bei unseren Mandanten entschuldigt. Wir glauben weiterhin.“ dass wir angesichts einer vom Gericht anerkannten beispiellosen Situation einen Fehler in gutem Glauben begangen haben, indem wir nicht geglaubt haben, dass ein technisches Produkt eine falsche Aussage treffen kann.“

Die Anwaltskanzlei sagte, sie überlege, ob sie Berufung einlegen solle.

Siehe auch  ChatGPT weckt erneutes Interesse an KI und bietet das Potenzial, Einblicke in den Bitcoin-Markt zu bieten, von Investing.com

Castel sagte, das böswillige Verhalten sei das Ergebnis des Versäumnisses der Anwälte, dem Richter und seinen Rechtsgegnern angemessen zu antworten, als sie feststellten, dass die sechs Rechtsfälle, die sie am 1. März zur Untermauerung ihrer schriftlichen Argumentation herangezogen hatten, nicht existierten.

Der Richter verwies auf „unberechenbare und widersprüchliche Interpretationen“ des Anwalts Steven A. Schwartz. Er sagte, Anwalt Peter LoDuca habe gelogen, weil er im Urlaub sei, und die Richtigkeit seiner Aussagen gegenüber Castel bestätigt.

Bei einer Anhörung Anfang dieses Monats sagte Schwartz, er habe einen auf künstlicher Intelligenz basierenden Chatbot eingesetzt, um einen rechtlichen Präzedenzfall zu finden, um die Klage eines Kunden wegen Flugschadens im Jahr 2019 gegen die kolumbianische Fluggesellschaft Avianca zu unterstützen.

Microsoft hat rund 1 Milliarde US-Dollar in OpenAI investiert, das Unternehmen hinter ChatGPT. Die Fähigkeit von ChatGPT, artikelähnliche Antworten zu generieren, lieferte Schwartz mehrere Fälle im Zusammenhang mit Flugunfällen, die mit den herkömmlichen Methoden der ehemaligen Anwaltskanzlei von Schwartz nicht gefunden werden konnten. In mehreren Fällen handelte es sich um fiktive Fälle, falsche Richterbezeichnungen oder um nicht existierende Fluggesellschaften.

Der Richter sagte, dass die vom Chatbot generierte gefälschte Fallentscheidung „einige Merkmale aufweist, die angeblich mit tatsächlichen Gerichtsentscheidungen übereinstimmen“, andere Teile enthielten jedoch „Unsinn“ und „bedeutungslosen Inhalt“.

In einem gesonderten schriftlichen Gutachten wies der Richter die Luftfahrtklage mit der Begründung ab, die Verjährungsfrist sei abgelaufen.

Schlüsselwörter:

5/5 - (276 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein