New Yorker Anwalt gerät nach Einreichung in Schwierigkeiten Rechtsforschungerstellt vom chatgpt-Chatbot, berichtet Luftwaffe.

Während einer Klage gegen eine Fluggesellschaft im Zusammenhang mit einem angeblichenUnd körperlichUnd SchadenICHMUnd Anwälte des Klägers vorbereitet Notiz, mit einer Liste mehrereeine Menge Fälle, die sollten war benutzt werden als Beispiel gerichtlichex PräzedenzfallDieses hier. Leider wurde, wie später in eidesstattlichen Erklärungen zugegeben wurde, sechs Fälle wurden vom Gericht anerkannt „niemals existiert“.

Die „Studie“ wurde von Stephen A. Schwartz zusammengestellt, Anwalt mit über 30 Jahren Erfahrung arbeiten. Schwartz gab in einem eidesstattlichen Schreiben an, dass er ChatGPT bisher nicht für juristische Recherchen genutzt habe und „sich der Möglichkeit nicht bewusst war, dass der Inhalt falsch sein könnte“.

SScreenshots, die dem Verfahren beigefügt waren, zeigtenWas Anwalt fragtl Chatbot: «ICHob Varghese eine echte Sache ist.“ Nund was der Chatbot antwortete: „DA“. Und als der Anwalt ChatGPT eine Frage stellte über die Quellen Das neuronale Netzwerk antwortete: «IN Rechtsrecherchedatenbanken wie Westlaw und LexisNexis. Auf die Frage „Sind die anderen Fälle, die Sie bereitgestellt haben, gefälscht“, Chatbot antwortete: „Nein.“

Egal wie fortgeschritten sie scheinen Chatbotssie sind immer noch anfällig für „Halluzinationen“ – perfekt stimmig klingende Antworten, die in keiner Weise keinen Bezug zur realen Welt haben.

Ein Anwalt schrieb zur Erklärungwas er „Entschuldige vielmals über den Einsatz generativer künstlicher Intelligenz als Ergänzungbedeutsam Rechtsrecherche“ und verspricht, „dies in Zukunft nie ohne absolute Echtheitsprüfung zu tun.“ Die Anhörung zu diesem ChatGPT-Fall ist für den 8. Juni geplant.

Siehe auch  So erstellen Sie eine ChatGPT-Eingabeaufforderung für Ihr Kündigungsschreiben
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein