Nach Angaben der New York Times nutzte ein Anwalt in einem Gerichtsverfahren ChatGPT und stellte falsche Informationen dar. Dieser Vorfall warnte vor den potenziellen Risiken künstlicher Intelligenz im Rechtsbereich.
In einem Fall, in dem ein Mann eine Fluggesellschaft wegen seiner Verletzungen verklagte, reichte das Anwaltsteam der Kläger eine Klage ein und stützte sich auf mehrere frühere Gerichtsverfahren. Die Anwälte der Verteidigung stellten jedoch fest, dass einige der angeführten Fälle nicht existierten, und informierten den Richter.
Der Prozessrichter war schockiert und ordnete eine Erklärung der Rechtsabteilung des Klägers an.
Steven Schwarz, einer der Anwälte der Kläger, gab zu, ChatGPT zum Abrufen juristischer Literatur verwendet zu haben. In einer Erklärung zeigte sich Schwarz reuig und sagte, er sei sich der Möglichkeit falscher Informationen nicht bewusst gewesen.
Zu den beim Gericht eingereichten Dokumenten gehören Screenshots von Gesprächen zwischen Schwarz und ChatGPT. ChatGPT behauptete fälschlicherweise, dass bestimmte Fälle in juristischen Datenbanken dokumentiert seien. Weitere Untersuchungen ergaben, dass ChatGPT sechs Fälle erfunden hatte.
Angesichts des Vorfalls werden die Anwälte Peter LoDuca und Steven Schwarz von LLP Levidow, Levidow & Oberman in einer Disziplinaranhörung über ihr Vorgehen informiert und müssen möglicherweise mit einer Suspendierung rechnen. Dieser Vorfall hat Diskussionen über den angemessenen Einsatz von KI-Tools in der Rechtsforschung ausgelöst.