Der beliebte KI-Chatbot wurde für die Einreichung fiktiver Rechtsrecherchen durch die Anwälte verantwortlich gemacht, was eine der bisher bizarrsten Anwendungen der Technologie darstellt.

Ein Bundesrichter in den USA verhängte am Donnerstag Geldstrafen in Höhe von 5.000 US-Dollar (4.600 Euro) gegen zwei Anwälte und eine Anwaltskanzlei. Dabei handelte es sich um einen beispiellosen Fall, in dem chatgpt für die Vorlage fiktiver Rechtsrecherchen in einem Anspruch auf Flugunfall verantwortlich gemacht wurde.

Richter P. Kevin Castel sagte, sie hätten in böser Absicht gehandelt. Aber er würdigte ihre Entschuldigungen und die ergriffenen Abhilfemaßnahmen als Erklärung dafür, warum härtere Sanktionen nicht notwendig seien, um sicherzustellen, dass sie oder andere sich nicht erneut durch künstliche Intelligenz dazu verleiten lassen, in ihren Argumenten eine falsche Rechtsgeschichte zu produzieren.

„Technologische Fortschritte sind an der Tagesordnung und es ist nichts grundsätzlich Falsches daran, ein zuverlässiges Werkzeug der künstlichen Intelligenz zur Unterstützung einzusetzen“, schrieb Castel.

„Aber die bestehenden Regeln schreiben den Anwälten eine Gatekeeper-Rolle vor, um die Richtigkeit ihrer Unterlagen sicherzustellen.“

Der Richter sagte, die Anwälte und ihre Kanzlei Levidow, Levidow & Oberman, PC hätten „ihre Verantwortung aufgegeben, als sie nicht existierende Rechtsgutachten mit gefälschten Zitaten und Zitaten einreichten, die mit dem künstlichen Intelligenztool ChatGPT erstellt wurden, und dann weiterhin zu den gefälschten Meinungen standen.“ nachdem gerichtliche Anordnungen ihre Existenz in Frage gestellt hatten.

In einer Erklärung erklärte die Anwaltskanzlei, dass sie der Anordnung von Castel nachkommen werde, fügte jedoch hinzu: „Wir sind mit der Feststellung, dass irgendjemand in unserer Kanzlei in böser Absicht gehandelt hat, aus Respekt nicht einverstanden.“

Siehe auch  Vier Beispiele von Arbeitnehmern aus verschiedenen Branchen zeigen Ihnen, wie Sie mit ChatGPT mehr Einkommen erzielen! | TechOrange Technologie-News Orange

„Wir haben uns bereits beim Gericht und unserem Mandanten entschuldigt. Wir glauben weiterhin, dass wir angesichts der Situation, die selbst das Gericht als beispiellos ansah, einen guten Glaubensfehler begangen haben, als wir nicht glaubten, dass ein Stück Technologie wieder gut gemacht werden könnte.“ Hüllen aus ganzem Stoff“.

Das Unternehmen sagte, es erwäge, Berufung einzulegen.

„Unsinn“ und „Unsinn“

Castel sagte, die Bösgläubigkeit resultiere aus dem Versäumnis der Anwälte, angemessen auf den Richter und ihre Rechtsgegner zu reagieren, als festgestellt wurde, dass sechs Rechtsfälle, die zur Untermauerung ihrer schriftlichen Argumente vom 1. März aufgeführt waren, nicht existierten.

Der Richter verwies auf „wechselhafte und widersprüchliche Erklärungen“ des Anwalts Steven A. Schwartz. Er sagte, Anwalt Peter LoDuca habe über seinen Urlaub gelogen und sei unehrlich gewesen, als er den Wahrheitsgehalt der gegenüber Castel eingereichten Aussagen bestätigt habe.

Bei einer Anhörung Anfang dieses Monats sagte Schwartz, er habe den auf künstlicher Intelligenz basierenden Chatbot genutzt, um rechtliche Präzedenzfälle zu finden, die den Fall eines Mandanten gegen die kolumbianische Fluggesellschaft Avianca wegen einer Verletzung auf einem Flug im Jahr 2019 unterstützen.

Microsoft hat rund 1 Milliarde US-Dollar (918,5 Millionen Euro) in OpenAI investiert, das Unternehmen hinter ChatGPT.

Der Chatbot, der essayartige Antworten auf Eingabeaufforderungen von Benutzern generiert, schlug mehrere Fälle vor, bei denen es um Flugunfälle ging, die Schwartz mit den in seiner Anwaltskanzlei üblichen Methoden nicht finden konnte.

Bei mehreren dieser Fälle handelte es sich nicht um reale, falsche Richteridentifizierungen oder um Fluggesellschaften, die nicht existierten.

Der Richter sagte, dass eine der vom Chatbot generierten gefälschten Entscheidungen „einige Merkmale aufweist, die oberflächlich mit tatsächlichen Gerichtsentscheidungen übereinstimmen“, andere Teile enthielten jedoch „Unsinn“ und seien „unsinnig“.

Siehe auch  Zhang Chaoming, CEO von Dialogue Circlecode: Erstellen Sie ein großes Unternehmensmodell, das nicht mit ChatGPT konkurriert, und verwenden Sie weniger Daten, um bessere Ergebnisse zu erzielen

In einem gesonderten schriftlichen Gutachten wies der Richter die zugrunde liegende Luftfahrtklage mit der Begründung ab, die Verjährungsfrist sei abgelaufen.

Die Anwälte von Schwartz und LoDuca antworteten nicht sofort auf eine Anfrage der Associated Press nach einem Kommentar.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein