Die Karriere eines Anwalts ist ernsthaft gefährdet, nachdem er sich bei der Erstellung seiner juristischen Dokumente auf künstliche Intelligenz verlassen hat. Steven Schwartz von der Anwaltskanzlei Levidow & Oberman, der über dreißig Jahre Erfahrung verfügt, geriet in Schwierigkeiten, als die künstliche Intelligenz von chatgpt nicht existierende Rechtsfälle, auf die er sich bezog, komponierte.
ChatGPT stellte dem Anwalt eine Liste von Fällen zur Verfügung, darunter Titel wie Varghese gegen China Southern Airlines, Petersen gegen Iran Air und Miller gegen United Airlines.
Es stellte sich jedoch heraus, dass alle diese Fälle frei erfunden waren. Aviancas Anwaltsteam und der ernannte Richter konnten keines der genannten Urteile finden. Infolgedessen musste Schwartz‘ Anwalt den Vorfall in einer eidesstattlichen Erklärung darlegen, in der er zugab, dass er ChatGPT zur Erstellung seines Dokuments verwendet hatte.
Schwartz erklärte, er sei sich der Möglichkeit nicht bewusst, dass die durch künstliche Intelligenz bereitgestellten Informationen falsch sein könnten. Er stellte dem Richter sogar Screenshots seines Chats mit ChatGPT zur Verfügung, in dem er fragte, ob einer der Fälle echt sei, und vom Chatbot die Bestätigung erhielt, dass er wirklich existiert und in zuverlässigen juristischen Datenbanken zu finden ist. Allerdings konnte keiner dieser Fälle gefunden werden, da sie vollständig von ChatGPT erfunden wurden.
Es ist wichtig zu beachten, dass ChatGPT, wie andere KI-basierte Chatbots, ein Sprachmodell ist, das darauf trainiert ist, Anweisungen zu befolgen und Antworten auf Benutzeranfragen zu geben. Dies bedeutet, dass der Benutzer bei der Informationsanfrage die Antwort erhalten kann, die er benötigt, auch wenn diese nicht der Realität entspricht.
Der Richter hat für nächsten Monat eine Anhörung angesetzt, um mögliche Sanktionen gegen Schwartz zu besprechen. Dem Anwalt wurde vorgeworfen, falsche Urteile und Links vorgelegt zu haben, die ihm von ChatGPT zur Verfügung gestellt wurden.