• Von Kathryn Armstrong
  • BBC News

Bildbeschreibung,

chatgpt kann Fragen in natürlicher, menschenähnlicher Sprache beantworten und andere Schreibstile nachahmen

Einem New Yorker Anwalt steht eine eigene Gerichtsverhandlung bevor, nachdem seine Kanzlei das KI-Tool ChatGPT für Rechtsrecherchen eingesetzt hat.

Ein Richter sagte, das Gericht sei mit einem „beispiellosen Umstand“ konfrontiert, nachdem festgestellt wurde, dass in einer Akte auf Beispielrechtsfälle verwiesen wurde, die es nicht gab.

Der Anwalt, der das Tool nutzte, sagte dem Gericht, er wisse „nicht, dass der Inhalt falsch sein könnte“.

ChatGPT erstellt auf Anfrage Originaltexte, enthält jedoch Warnungen, dass es „ungenaue Informationen liefern“ kann.

Im ursprünglichen Fall verklagte ein Mann eine Fluggesellschaft wegen angeblicher Körperverletzung. Sein Anwaltsteam reichte einen Schriftsatz ein, in dem mehrere frühere Gerichtsverfahren zitiert wurden, um anhand von Präzedenzfällen zu beweisen, warum der Fall vorangetrieben werden sollte.

Doch die Anwälte der Fluggesellschaft schrieben später an den Richter und teilten ihm mit, dass sie mehrere der im Schriftsatz genannten Fälle nicht finden könnten.

„Sechs der eingereichten Fälle scheinen gefälschte Gerichtsentscheidungen mit falschen Zitaten und falschen internen Zitaten zu sein“, schrieb Richter Castel in einer Anordnung, in der er das Anwaltsteam des Mannes aufforderte, sich zu erklären.

Im Laufe mehrerer Akten stellte sich heraus, dass die Recherche nicht von Peter LoDuca, dem Anwalt des Klägers, sondern von einem seiner Kollegen in derselben Anwaltskanzlei erstellt worden war. Steven A. Schwartz, der seit mehr als 30 Jahren als Anwalt tätig ist, nutzte ChatGPT, um nach ähnlichen früheren Fällen zu suchen.

Herr Schwartz fügte hinzu, dass er es „sehr bedauere“, sich auf den Chatbot verlassen zu haben, den er noch nie zuvor für juristische Recherchen genutzt habe und „nicht wusste, dass sein Inhalt falsch sein könnte“.

Er hat geschworen, in Zukunft niemals KI zur „Ergänzung“ seiner juristischen Forschung einzusetzen, „ohne eine absolute Überprüfung ihrer Authentizität“.

Der Akte beigefügte Screenshots scheinen ein Gespräch zwischen Herrn Schwarz und ChatGPT zu zeigen.

„Ist Varghese ein echter Fall“, heißt es in einer Nachricht und bezieht sich auf Varghese gegen China Southern Airlines Co Ltd, einen der Fälle, die kein anderer Anwalt finden konnte.

ChatGPT antwortet mit „Ja, das ist es“ und fordert „S“ auf, zu fragen: „Was ist Ihre Quelle?“

Nach einer „doppelten Überprüfung“ antwortet ChatGPT erneut, dass der Fall real sei und in juristischen Referenzdatenbanken wie LexisNexis und Westlaw zu finden sei.

Es heißt, dass die anderen Fälle, die es Herrn Schwartz vorgelegt hat, ebenfalls real sind.

Beide Anwälte, die für die Kanzlei Levidow, Levidow & Oberman arbeiten, wurden aufgefordert, bei einer Anhörung am 8. Juni zu erklären, warum gegen sie keine Disziplinarmaßnahmen verhängt werden sollten.

Millionen von Menschen haben ChatGPT seit seiner Einführung im November 2022 genutzt.

Es kann Fragen in natürlicher, menschenähnlicher Sprache beantworten und auch andere Schreibstile nachahmen. Als Datenbank nutzt es das Internet, wie es im Jahr 2021 war.

Es gab Bedenken hinsichtlich der potenziellen Risiken künstlicher Intelligenz (KI), einschließlich der möglichen Verbreitung von Fehlinformationen und Voreingenommenheit.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein