Ein Anwalt aus New York gerät in Schwierigkeiten, weil er einen juristischen Schriftsatz mit Verweisen auf Fälle eingereicht hat, die von chatgpt erfunden wurden.

Als Die New York Times Berichte(Öffnet in einem neuen Fenster)Steven Schwartz von Levidow, Levidow und Oberman reichte in einem zehnseitigen Schriftsatz sechs gefälschte Gerichtsentscheidungen ein, während er einen Kläger vertrat, der die kolumbianische Fluggesellschaft Avianca wegen einer auf einem Flug erlittenen Verletzung verklagte.

In dem Schriftsatz, in dem dargelegt wurde, warum die Klage fortgesetzt werden sollte, wurden gefälschte Fälle angeführt, die vollständig von ChatGPT erfunden worden waren und die Schwartz nicht überprüft hatte.

In einem (n eidesstattliche Erklärung(Öffnet in einem neuen Fenster)Schwartz gab zu, bei der Recherche für den Auftrag ChatGPT verwendet zu haben, und übernahm die Verantwortung dafür, die Quellen des KI-Chatbots nicht überprüft zu haben.

Schwartz sagte, er sei „sich der Möglichkeit nicht bewusst, dass der Inhalt falsch sein könnte“ und behauptete, dass er „es sehr bedauert, generative künstliche Intelligenz genutzt zu haben, um die hier durchgeführte juristische Forschung zu ergänzen, und dies in Zukunft niemals ohne eine absolute Überprüfung ihrer Authentizität tun werde.“ ”

Dies geschah, nachdem der US-Bezirksrichter Kevin Castel in einem schrieb Bestellung vom 4. Mai(Öffnet in einem neuen Fenster): „Das Gericht wird mit einem beispiellosen Umstand konfrontiert … Sechs der eingereichten Fälle scheinen gefälschte Gerichtsentscheidungen mit falschen Zitaten und falschen internen Zitaten zu sein.“

Die eidesstattliche Erklärung enthielt Screenshots, auf denen der Anwalt von ChatGPT mitgeteilt wurde, dass die von ihm bereitgestellten Fälle real seien und in jeder „seriösen juristischen Datenbank“ gefunden werden könnten. Die Screenshots zeigen auch, wie Schwartz den KI-Chatbot nach der Quelle eines gefälschten Falles fragt: Varghese gegen China Southern Airlines.

ChatGPT antwortete: „Ich entschuldige mich für die Verwirrung vorhin. Bei nochmaliger Überprüfung stellte ich fest, dass der Fall Varghese gegen China Southern Airlines Co. Ltd., 925 F.3d 1339 (11. Cir. 2019), tatsächlich existiert und in Rechtsrecherchedatenbanken wie Westlaw und LexisNexis zu finden ist. Ich entschuldige mich für etwaige Unannehmlichkeiten oder Verwirrung, die meine früheren Antworten möglicherweise verursacht haben.“

Als die Mal stellt fest, dass Schwartz nun am 8. Juni vor einer Anhörung zu Sanktionen steht.

Die Saga ist der jüngste in einer Reihe von Vorfällen, bei denen KI-Chatbots Fehlinformationen verbreiten. Lange Gespräche mit Bing von Microsoft führten dazu, dass der Chatbot einige Manipulationstaktiken wie Gaslighting anwandte, während Bard, der KI-Chatbot von google, bei seinem Debüt Lügen über das James Webb-Weltraumteleskop verbreitete.

What's New Now to get our top stories delivered to your inbox every morning.","first_published_at":"2021-09-30T21:30:40.000000Z","published_at":"2022-08-31T18:35:24.000000Z","last_published_at":"2022-08-31T18:35:20.000000Z","created_at":null,"updated_at":"2022-08-31T18:35:24.000000Z"})" x-show="showEmailSignUp()" class="rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs">

Holen Sie sich unsere besten Geschichten!

Melden Sie sich an für Was ist jetzt neu? um jeden Morgen unsere Top-Storys in Ihren Posteingang zu bekommen.

Dieser Newsletter kann Werbung, Angebote oder Affiliate-Links enthalten. Wenn Sie einen Newsletter abonnieren, erklären Sie sich damit einverstanden Nutzungsbedingungen Und Datenschutz-Bestimmungen. Sie können den Newsletter jederzeit abbestellen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein