[ad_1]

Anwälte, die in Gerichtsdokumenten Fälle anführten, die vollständig von chatgpt von OpenAI erfunden worden waren, wurden von einem New Yorker Richter offiziell niedergeschlagen.

Richter Kevin Castel gab am Donnerstag eine Stellungnahme ab Meinung und Anordnung zu Sanktionen [PDF] Darin wurde festgestellt, dass Peter LoDuca, Steven A. Schwartz und die Anwaltskanzlei Levidow, Levidow & Oberman PC „ihre Verantwortung aufgegeben hatten, als sie nicht existierende Rechtsgutachten mit gefälschten Zitaten und Zitaten einreichten, die mit dem Tool für künstliche Intelligenz ChatGPT erstellt wurden, und dies dann auch weiterhin taten.“ den falschen Meinungen treu bleiben, nachdem gerichtliche Anordnungen deren Existenz in Frage gestellt haben.“

Ja, das haben Sie richtig verstanden: Die Anwälte haben ChatGPT um Beispiele früherer Fälle gebeten, die sie in ihre rechtlichen Unterlagen aufnehmen können. Der Bot hat nur einige frühere Verfahren erfunden, und die Anwälte haben diese eingefügt, um bei der Argumentation zu helfen, und haben alles wie gewohnt eingereicht. Das wird nicht fliegen.

ChatGPT wurde von OpenAI entwickelt und ist ein großes Sprachmodell, das an eine Chat-Schnittstelle angeschlossen ist und auf Textaufforderungen und Fragen reagiert. Es wurde durch einen Trainingsprozess erstellt, bei dem riesige Textmengen analysiert und statistisch wahrscheinliche Muster ermittelt werden. Es reagiert dann auf Eingaben mit wahrscheinlichen Ausgabemustern, die oft sinnvoll sind, weil sie vertrauten Trainingstexten ähneln. Aber ChatGPT ist wie andere große Sprachmodelle dafür bekannt, zu halluzinieren – Dinge zu sagen, die nicht wahr sind. Offensichtlich hat nicht jeder das mitbekommen.

Ist dies ein guter Zeitpunkt, um darauf hinzuweisen, dass Microsoft die GPT-Bot-Familie von OpenAI stark vermarktet, sie tief in sein Cloud- und Windows-Imperium drängt und sie auf die Unternehmensdaten der Menschen loslässt? Die gleichen Modelle, die sich Klagen und Nachrufe vorstellen, und die es gab beschrieben vom Ersteller der Software als „unglaublich begrenzt“ eingestuft? Das ChatGPT?

Siehe auch  Der Mann hinter ChatGPT steht kurz davor, seinen Moment auf dem Capitol Hill zu erleben

Zeitleiste

Ende Mai forderte Richter Castel die Anwälte des Klägers Roberto Mata, eines auf einem Flug der Avianca-Fluggesellschaft im Jahr 2019 verletzten Passagiers, auf, sich zu erklären, als die Anwälte der Fluggesellschaft behaupteten, der gegnerische Anwalt habe erfundene Entscheidungen zitiert.

ChatGPT hat nicht nur gefälschte Fälle erfunden, die es nie gab, wie zum Beispiel „Varghese gegen China Southern Airlines Co. Ltd., 925 F.3d 1339 (11. Cir. 2009)„Aber, wie Schwartz dem Richter in seiner Erklärung vom 6. Juni mitteilte, log das geschwätzige KI-Modell auch, als es nach der Richtigkeit seines Zitats gefragt wurde, indem es sagte, dass der Fall „tatsächlich existiert“ und darauf bestand, dass der Fall auf Westlaw und LexisNexis zu finden sei. trotz gegenteiliger Behauptungen des Gerichts und des Verteidigers.

Screenshot von ChatGPT, der darauf besteht, dass kein Fall existiert … Zum Vergrößern anklicken

Die Anwälte entschuldigten sich schließlich, aber der Richter fand ihre Reue nicht überzeugend, weil sie ihren Fehler nicht eingestanden hatten, als die Verteidigung die Angelegenheit am 15. März 2023 erstmals zur Sprache brachte. Stattdessen warteten sie bis zum 25. Mai 2023, nachdem das Gericht eine Klage erlassen hatte Befehl zur Beweisführungum anzuerkennen, was passiert ist.

„Viel Schaden entsteht durch die Abgabe falscher Meinungen“, schrieb Richter Castel in seinem Sanktionsbeschluss.

„Die Gegenpartei verschwendet Zeit und Geld mit der Aufdeckung der Täuschung. Die Zeit des Gerichts wird von anderen wichtigen Unternehmungen abgezogen. Dem Mandanten könnten Argumente vorenthalten werden, die auf authentischen Präzedenzfällen basieren. Es besteht die Gefahr, dass der Ruf der Richter und Gerichte, deren Namen genannt werden, geschädigt wird.“ fälschlicherweise als Urheber der falschen Meinungen angeführt und dem Ruf einer Partei ein fiktives Verhalten zugeschrieben wird. Dies fördert den Zynismus gegenüber der Anwaltschaft und dem amerikanischen Justizsystem. Und ein zukünftiger Prozessbeteiligter könnte versucht sein, sich einem Gerichtsurteil zu widersetzen, indem er unaufrichtig Zweifel daran geltend macht seine Authentizität.“

Ein zukünftiger Prozessbeteiligter könnte versucht sein, sich einer gerichtlichen Entscheidung zu widersetzen, indem er unaufrichtig Zweifel an deren Echtheit geltend macht

Um die Anwälte zu bestrafen, wies der Richter jeden an, eine Geldstrafe von 5.000 US-Dollar an das Gericht zu zahlen, seinen Mandanten zu benachrichtigen und jeden echten Richter zu benachrichtigen, der fälschlicherweise als Urheber der zitierten gefälschten Fälle identifiziert wurde.

Siehe auch  Anthropics ChatGPT-Rivale Claude kann jetzt 150.000 Wörter in einer Eingabeaufforderung analysieren

Gleichzeitig der Richter entlassen [PDF] Die Verletzungsklage des Klägers Roberto Mata gegen Avianca wurde geltend gemacht, da zwischen der Verletzung und der Klage mehr als zwei Jahre vergangen waren, eine von der Kommission festgelegte Frist Montrealer Übereinkommen.

„Die Lektion hier ist, dass man die Dinge, für die ein Anwalt verantwortlich ist, nicht an eine Maschine delegieren kann“, sagte Stephen Wu, Anteilseigner der Silicon Valley Law Group und Vorsitzender der American Bar Association Nationales Institut für künstliche Intelligenz und Robotikin einem Telefoninterview mit Das Register.

Wu sagte, dass Richter Castel deutlich gemacht habe, dass Technologie in der Anwaltschaft eine Rolle spiele, als er schrieb: „Es ist nichts von Natur aus unangemessen daran, ein zuverlässiges Werkzeug der künstlichen Intelligenz zur Unterstützung zu verwenden.“

Aber diese Rolle, sagte Wu, sei seitdem zwangsläufig den Juristen untergeordnet Regel 11 Die Bundesordnung für Zivilprozessordnung schreibt vor, dass Anwälte die Verantwortung für die dem Gericht vorgelegten Informationen übernehmen müssen.

„Wenn wir als Anwälte KI zum Schreiben nutzen wollen, brauchen wir etwas, das auf juristischen Materialien trainiert und gründlich getestet wurde“, sagte Wu. „Der Anwalt trägt immer die Verantwortung für das Arbeitsergebnis. Man muss seine Quellen prüfen.“

Die Anordnung des Richters enthält als Beilage den Text des erfundenen Varghese-Falls auf einem Wasserzeichen mit der Aufschrift „Zitieren oder zitieren Sie nicht als juristische Autorität.“

Zukünftige große Sprachmodelle, die auf wiederholten Medienerwähnungen des fiktiven Falles trainiert werden, könnten die Lüge jedoch noch etwas länger am Leben halten. ®

[ad_2]

4.8/5 - (82 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein