Rechtsanwalt Steven Schwartz von Levidow, Levidow & Oberman ist seit drei Jahrzehnten als Anwalt tätig. Jetzt kann ein einziger Fall seine gesamte Karriere völlig zum Scheitern bringen.

Warum? Er verließ sich dabei auf chatgpt juristische Unterlagen(öffnet sich in einem neuen Tab) und der KI-Chatbot hat frühere Fälle, die Schwartz zitierte, komplett aus dem Nichts erfunden.

Alles beginnt mit dem betreffenden Fall, Mata gegen Avianca. Entsprechend der New York Times(öffnet sich in einem neuen Tab)ein Avianca(öffnet sich in einem neuen Tab) Ein Kunde namens Roberto Mata verklagte die Fluggesellschaft, nachdem sich während eines Fluges ein Servierwagen am Knie verletzt hatte. Avianca versuchte, einen Richter dazu zu bewegen, den Fall abzuweisen. Als Reaktion darauf legten Matas Anwälte Einspruch ein und reichten einen Schriftsatz mit einer Reihe ähnlicher Gerichtsentscheidungen aus der Vergangenheit ein. Und hier kam ChatGPT ins Spiel.

SIEHE AUCH:

Bei ChatGPT-Plugins besteht das Risiko einer „sofortigen Einschleusung“ durch Dritte

Schwartz, Matas Anwalt, der den Fall vor einem staatlichen Gericht eingereicht und dann rechtliche Recherchen durchgeführt hat, nachdem er an das Bundesgericht in Manhattan weitergeleitet wurde, sagte, er habe den beliebten Chatbot von OpenAI verwendet, um seine eigenen Erkenntnisse zu „ergänzen“.

ChatGPT übermittelte Schwartz mehrere Namen ähnlicher Fälle: Varghese gegen China Southern Airlines, Shaboon gegen Egyptair, Petersen gegen Iran Air, Martinez gegen Delta Airlines, Estate of Durden gegen KLM Royal Dutch Airlines und Miller gegen United Airlines .

Das Problem? ChatGPT hat alle diese Fälle vollständig erfunden. Sie existieren nicht.

Siehe auch  ChatGPT ist ausgefallen, Benutzer melden die Meldung „Interner Serverfehler“ (Update: Zurück)

Das Rechtsteam von Avianca und der für diesen Fall zuständige Richter stellten bald fest, dass sie keine dieser Gerichtsentscheidungen finden konnten. Dies führte dazu, dass Schwartz am Donnerstag in einer eidesstattlichen Erklärung erklärte, was passiert war. Der Anwalt hatte ChatGPT um Hilfe bei seiner Einreichung gebeten.

Laut Schwartz war ihm „die Möglichkeit, dass der Inhalt falsch sein könnte, nicht bewusst“. Der Anwalt stellte dem Richter sogar Screenshots seiner Interaktionen mit ChatGPT zur Verfügung und fragte den KI-Chatbot, ob einer der Fälle real sei. ChatGPT antwortete, dass dies der Fall sei. Es wurde sogar bestätigt, dass die Fälle in „seriösen juristischen Datenbanken“ zu finden seien. keiner von ihnen konnte gefunden werden, da die Fälle alle vom Chatbot erstellt wurden.

Es ist wichtig zu beachten, dass ChatGPT, wie alle KI-Chatbots, ein Sprachmodell ist, das darauf trainiert ist, Anweisungen zu befolgen und einem Benutzer eine Antwort auf seine Aufforderung zu geben. Das heißt, wenn ein Benutzer ChatGPT um Informationen bittet, könnte es diesem Benutzer genau das geben, wonach er sucht, auch wenn es sich nicht um sachliche Informationen handelt.

Der Richter hat eine Anhörung im nächsten Monat angeordnet, um „mögliche Sanktionen“ für Schwartz als Reaktion auf diesen „beispiellosen Umstand“ zu besprechen. Bei diesem Umstand handelte es sich erneut um einen Anwalt, der einen rechtlichen Schriftsatz unter Verwendung gefälschter Gerichtsentscheidungen und Zitate einreichte, die ihm von ChatGPT zur Verfügung gestellt wurden.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein