Eine New Yorker Anwaltskanzlei übergab dem Richter ein mit Fehlern gespicktes Memorandum: Ein Teil der zitierten Rechtsprechung sei phantasievoll. Der Autor gibt zu, chatgpt verwendet zu haben, ohne zu wissen, dass der Konversationsroboter nicht unfehlbar ist.

Par Paul Suggy

Veröffentlicht aktualisieren

Dieser Inhalt ist nicht barrierefrei.

Der Textgenerator für künstliche Intelligenz ChatGPT warnt seine Benutzer, dass er nicht unfehlbar ist. Supatman / stock.adobe.com

Ursprünglich handelte es sich nur um einen trivialen Rechtsstreit zwischen einer Privatperson und einer Fluggesellschaft, der vorgeworfen wurde, für die Verletzungen verantwortlich zu sein, die er erlitten zu haben behauptet. Aber wie offenbart von New York Times waren die Anwälte der Fluggesellschaft von der Stellungnahme der Anwälte des Klägers verblüfft: Unter den Urteilen, die sie als Rechtsprechung anführten, um ihren Antrag zu stützen, berief sich dieser auf mehrere Fälle, die schlicht und ergreifend nie existierten.

Der für den Fall zuständige New Yorker Richter, P. Kevin Castel, schrieb daraufhin an die Anwälte des Klägers und bat sie um eine Erklärung: „Sechs der zitierten Urteile beziehen sich auf falsche Gerichtsentscheidungen und erwähnen falsche Zitate“, er beobachtet.

Dieser Inhalt ist nicht barrierefrei.

Die Anwaltskanzlei Levidow & Oberman antwortete dem Gericht, dass nicht der Anwalt des Klägers, Peter LoDuca, sondern einer seiner Mitarbeiter, Steven A. Schwartz, das dem Gericht übermittelte Memorandum verfasst habe. Trotz mehr als dreißigjähriger Erfahrung als Anwalt und fundierten Rechtskenntnissen gab Schwartz zu, für seine Forschung ChatGPT verwendet zu haben, den Algorithmus, der künstliche Intelligenz nutzt, um mit Internetnutzern zu kommunizieren und Texte auf Anfrage zu erstellen.

„ LESEN SIE AUCH – Aurélie Jean: „Haben Hollywood-Drehbuchautoren zu Recht Angst vor ChatGPT?“

Siehe auch  ChatGPT's Bias Bites in Bytes | Meinung

ChatGPT hatte jedoch seine Quellen zitiert

Schwartz, der ausdrückte: „großes BedauernAls er seinen Fehler erkannte, erklärte er vor Gericht, dass er ChatGPT noch nie zuvor verwendet habe und nicht wusste, dass einige der vom Algorithmus bereitgestellten Antworten erfunden und daher falsch seien. ChatGPT warnt seine Benutzer jedoch davor, dass es manchmal das Risiko eingeht,falsche Angaben machen».

Der Anwalt stellte dem Gericht Screenshots seiner ChatGPT-Interaktionen zur Verfügung, aus denen hervorgeht, dass der Chatbot ihm bestätigt hatte, dass einer der skurrilen Stopps tatsächlich existiert hatte. Als der Anwalt ihn nach seinen Quellen fragte, zitierte die künstliche Intelligenz LexisNexis und Westlaw – zwei Datenbanken, die sich auf Gerichtsentscheidungen beziehen. Allerdings, wenn wir zurückkommenVarghese gegen China Southern Airlines Co Ltd(der Name einer der im Memorandum genannten Haltestellen) in der LexisNexis-Suchmaschine finden wir keine Ergebnisse.

Die beiden Anwälte Steven A. Scwartz und Peter LoDuca werden zu einer Anhörung am 8. Juni geladen, im Hinblick auf ein mögliches Disziplinarverfahren gegen sie. Schwartz versprach dem Gericht, dass er ChatGPT nicht mehr durchsuchen werde, ohne sich anschließend selbst von der Realität der von der künstlichen Intelligenz vorgeschlagenen Urteile zu überzeugen.

4.5/5 - (62 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein