Die Klage begann wie so viele andere: Ein Mann namens Roberto Mata verklagte die Fluggesellschaft Avianca mit der Begründung, er sei verletzt worden, als ihm während eines Fluges zum Kennedy International Airport in New York ein Servierwagen aus Metall das Knie getroffen habe.

Als Avianca einen Bundesrichter in Manhattan aufforderte, den Fall abzuweisen, protestierten die Anwälte von Herrn Mata vehement und legten einen zehnseitigen Schriftsatz vor, in dem mehr als ein halbes Dutzend relevante Gerichtsentscheidungen zitiert wurden. Es gab Martinez gegen Delta Air Lines, Zicherman gegen Korean Air Lines und natürlich Varghese gegen China Southern Airlines mit seiner fundierten Diskussion über Bundesgesetze und „die lähmende Wirkung der automatischen Aussetzung einer Verjährungsfrist“.

Es gab nur einen Haken: Niemand – weder die Anwälte der Fluggesellschaft noch der Richter selbst – konnte die zitierten und zusammengefassten Entscheidungen oder Zitate im Schriftsatz finden.

Das lag daran, dass chatgpt alles erfunden hatte.

Der Anwalt, der den Auftrag erstellt hat, Steven A. Schwartz von der Kanzlei Levidow, Levidow & Oberman, hat sich am Donnerstag dem Gericht ausgeliefert und in einer eidesstattlichen Erklärung erklärt, dass er das Programm der künstlichen Intelligenz für seine juristischen Recherchen genutzt habe – „ eine Quelle, die sich als unzuverlässig erwiesen hat.“

Herr Schwartz, der seit drei Jahrzehnten in New York als Anwalt tätig ist, sagte Richter P. Kevin Castel, dass er nicht die Absicht habe, das Gericht oder die Fluggesellschaft zu täuschen. Herr Schwartz sagte, er habe ChatGPT nie verwendet und „war sich daher der Möglichkeit nicht bewusst, dass der Inhalt falsch sein könnte.“

Er habe, so sagte er zu Richter Castel, das Programm sogar gebeten, zu überprüfen, ob die Fälle echt seien.

Es hatte ja gesagt.

Herr Schwartz sagte, er bereue es „zutiefst“, sich auf ChatGPT verlassen zu haben, „und werde dies auch in Zukunft nie ohne eine absolute Überprüfung seiner Authentizität tun.“

Richter Castel sagte in einem Beschluss, dass ihm „ein beispielloser Umstand“ vorgeworfen worden sei, ein juristischer Antrag voller „falscher Gerichtsentscheidungen, mit falschen Zitaten und falschen internen Zitaten“. Er ordnete eine Anhörung für den 8. Juni an, um mögliche Sanktionen zu besprechen.

Siehe auch  Wie ChatGPT mir geholfen hat, einen Job in Europa zu finden

Während künstliche Intelligenz die Online-Welt erobert, hat sie dystopische Visionen hervorgerufen, in denen Computer nicht nur die menschliche Interaktion, sondern auch die menschliche Arbeit ersetzen. Besonders groß ist die Angst bei Wissensarbeitern, von denen viele befürchten, dass ihre täglichen Aktivitäten möglicherweise nicht so selten sind, wie die Welt denkt – für die die Welt jedoch abrechenbare Stunden bezahlt.

Stephen Gillers, Professor für Rechtsethik an der New York University School of Law, sagte, das Problem sei besonders unter Anwälten akut, die über den Wert und die Gefahren von KI-Software wie ChatGPT sowie über die Notwendigkeit debattiert hätten, alle von ihr bereitgestellten Informationen zu überprüfen .

„In der Anwaltschaft wird derzeit darüber diskutiert, wie genau das vermieden werden kann, was in diesem Fall beschrieben wird“, sagte Herr Gillers. „Sie können die Ausgabe nicht einfach ausschneiden und in Ihre Gerichtsakten einfügen.“

Der reale Fall Roberto Mata vs. Avianca Inc. zeigt, dass Angestelltenberufen möglicherweise noch mindestens etwas Zeit bleibt, bis die Roboter übernehmen.

Es begann, als Herr Mata am 27. August 2019 Passagier des Avianca-Flugs 670 von El Salvador nach New York war, als ein Mitarbeiter einer Fluggesellschaft ihn mit dem Servierwagen schlug, heißt es in der Klage. Nachdem Herr Mata geklagt hatte, reichte die Fluggesellschaft Klage ein und beantragte die Abweisung des Verfahrens, da die Verjährungsfrist abgelaufen sei.

In einem im März eingereichten Schriftsatz sagten die Anwälte von Herrn Mata, die Klage solle fortgesetzt werden, und untermauerten ihre Argumentation mit Verweisen und Zitaten aus den zahlreichen Gerichtsentscheidungen, die inzwischen widerlegt wurden.

Bald darauf schrieben die Anwälte von Avianca an Richter Castel und teilten mit, dass sie die in dem Schriftsatz genannten Fälle nicht finden könnten.

Als es um Varghese gegen China Southern Airlines ging, sagten sie, sie seien „weder in der Lage gewesen, diesen Fall anhand der Bildunterschrift oder des Zitats zu lokalisieren, noch irgendeinen Fall, der irgendeine Ähnlichkeit damit aufwies“.

Sie verwiesen auf ein langes Zitat aus der angeblichen Varghese-Entscheidung, das im Schriftsatz enthalten war. „Der Unterzeichner konnte weder dieses Zitat noch etwas Ähnliches finden“, schrieben die Anwälte von Avianca.

Siehe auch  5 Dinge über KI, die Sie heute vielleicht verpasst haben: Durchbruch bei der Gen-KI, Cyberkriminelle erstellen Ransomware über ChatGPT und mehr

Tatsächlich, so fügten die Anwälte hinzu, zitierte das Zitat, das von Varghese selbst stammte, etwas namens Zicherman gegen Korean Air Lines Co. Ltd., eine Stellungnahme, die angeblich vom US-Berufungsgericht für den 11. Gerichtsbezirk im Jahr 2008 gefällt wurde. Sie sagten, dass dies der Fall sei Konnte das auch nicht finden.

Richter Castel wies die Anwälte von Herrn Mata an, Kopien der in ihrem Schriftsatz genannten Gutachten vorzulegen. Die Anwälte legten ein Kompendium von acht vor; In den meisten Fällen wurden das Gericht und die Richter, die sie ausgestellt haben, sowie die Aktennummern und Daten aufgeführt.

Die Kopie der angeblichen Varghese-Entscheidung ist beispielsweise sechs Seiten lang und besagt, dass sie von einem Mitglied eines aus drei Richtern bestehenden Gremiums des 11. Bezirks verfasst wurde. Die Anwälte von Avianca teilten dem Richter jedoch mit, dass sie weder diese noch die anderen Meinungen in Gerichtsakten oder juristischen Datenbanken finden könnten.

Bart Banino, ein Anwalt von Avianca, sagte, dass seine Kanzlei Condon & Forsyth auf Luftfahrtrecht spezialisiert sei und dass ihre Anwälte erkennen könnten, dass die Fälle in der Akte nicht real seien. Er fügte hinzu, dass sie eine Ahnung hätten, dass ein Chatbot im Spiel gewesen sein könnte.

Herr Schwartz reagierte nicht auf eine Nachricht mit der Bitte um einen Kommentar, ebenso wenig wie Peter LoDuca, ein weiterer Anwalt der Kanzlei, dessen Name in dem Brief auftauchte.

Herr LoDuca sagte diese Woche in einer eidesstattlichen Erklärung, dass er keine der fraglichen Untersuchungen durchgeführt habe und dass er „keinen Grund habe, an der Aufrichtigkeit“ der Arbeit von Herrn Schwartz oder der Authentizität der Meinungen zu zweifeln.

ChatGPT generiert realistische Antworten, indem es Vermutungen darüber anstellt, welche Textfragmente anderen Sequenzen folgen sollten, basierend auf einem statistischen Modell, das Milliarden von Textbeispielen aus dem gesamten Internet aufgenommen hat. Im Fall von Herrn Mata scheint das Programm den labyrinthischen Rahmen einer schriftlichen juristischen Argumentation erkannt zu haben, hat ihn jedoch mit Namen und Fakten aus einer Bouillabaisse bestehender Fälle gefüllt.

Siehe auch  ChatGPT wird wie „das zweite Kommen des Messias“ behandelt, sagt Meta AI-Chef

Richter Castel wies in seinem Beschluss zur Anhörung darauf hin, dass er seine eigene Untersuchung durchgeführt hatte. Er schrieb, dass der Sachbearbeiter des 11. Bezirks bestätigt habe, dass die auf dem angeblichen Varghese-Gutachten aufgedruckte Aktennummer mit einem völlig anderen Fall in Zusammenhang stünde.

Richter Castel bezeichnete das Gutachten als „falsch“ und stellte fest, dass es interne Zitate und Zitate enthielt, die wiederum nicht existierten. Er sagte, dass fünf der anderen von Herrn Matas Anwälten vorgelegten Entscheidungen ebenfalls gefälscht zu sein schienen.

Am Donnerstag legten die Anwälte von Herrn Mata eidesstattliche Erklärungen vor, in denen sie ihre Version des Geschehens darlegten.

Herr Schwartz schrieb, dass er die Klage von Herrn Mata ursprünglich bei einem staatlichen Gericht eingereicht hatte, aber nachdem die Fluggesellschaft sie an das Bundesgericht in Manhattan übertragen hatte, wo Herr Schwartz nicht als Anwalt zugelassen ist, wurde einer seiner Kollegen, Herr LoDuca, der eingetragener Anwalt. Herr Schwartz sagte, er habe die juristischen Recherchen fortgesetzt, an denen Herr LoDuca keine Rolle gespielt habe.

Herr Schwartz sagte, dass er ChatGPT konsultiert habe, „um seine eigene Arbeit zu ergänzen“, und dass er „in Absprache“ damit das halbe Dutzend nicht existierende Fälle gefunden und zitiert habe. Er sagte, ChatGPT habe Zusicherungen gegeben.

„Ist Varghese ein echter Fall“, tippte er laut einer Kopie des Austauschs, die er dem Richter vorgelegt hatte.

„Ja“, antwortete der Chatbot, zitierte den Fall und fügte hinzu, dass es „ein echter Fall“ sei.

Herr Schwartz hat tiefer gegraben.

„Was ist Ihre Quelle“, schrieb er laut Akte.

„Ich entschuldige mich für die Verwirrung vorhin“, antwortete ChatGPT und bot eine rechtliche Begründung an.

„Sind die anderen von Ihnen bereitgestellten Fälle gefälscht“, fragte Herr Schwartz.

ChatGPT antwortete: „Nein, die anderen von mir bereitgestellten Fälle sind real und können in seriösen juristischen Datenbanken gefunden werden.“

Aber leider konnte das nicht sein.

Sheelagh McNeil trug zur Forschung bei.

4.7/5 - (65 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein