Ein Anwalt nutzte chatgpt, um fiktive Fälle in einem juristischen Briefing zu generieren und zu zitieren, was den Richter verärgerte und zu möglichen Strafen führte. Als der Anwalt gebeten wurde, Kopien der zitierten Fälle bereitzustellen, wandte er sich erneut an ChatGPT, das vollständige Einzelheiten zu den nicht existierenden Fällen lieferte.

Der fragliche Anwalt, Steven A. Schwartz, vertrat einen Mann, der die Fluggesellschaft Avianca verklagte, nachdem ihm während eines Fluges zum New Yorker Kennedy Airport im Jahr 2019 ein Servicewagen das Knie getroffen hatte. Schwartz sagte, er habe ChatGPT noch nie zuvor verwendet und dies auch nicht getan. Ich wusste nicht, dass er sich einfach ein Geschäft ausdenken würde. Tatsächlich sagte Schwartz, er habe ChatGPT sogar gefragt, ob die Deals real seien. Der Chatbot bestand darauf, dass dies der Fall sei.

Der Prozess begann wie so viele andere: Ein Mann namens Roberto Mata verklagte die Fluggesellschaft Avianca und behauptete, er sei verletzt worden, als ein metallener Servicewagen während eines Fluges zum New York Kennedy International Airport sein Knie traf.

Als Avianca einen Bundesrichter in Manhattan aufforderte, den Fall abzuweisen, lehnten Matas Anwälte vehement ab und reichten einen zehnseitigen Schriftsatz ein, in dem sie mehr als ein halbes Dutzend relevanter Gerichtsentscheidungen zitierten. Da waren Martinez c. Delta Airlines, Zicherman c. Koreanische Fluglinien und natürlich, Varghese c. China Southern Airlinesmit seiner wissenschaftlichen Diskussion des Bundesrechts und der Seitenwirkung der automatischen Aussetzung einer Verjährungsfrist.

Es gab nur einen Haken: Niemand (weder die Anwälte der Fluggesellschaft noch der Richter selbst) konnte die zitierten und zusammengefassten Entscheidungen oder Zitate im Schriftsatz finden.

Das lag daran, dass ChatGPT alles erfunden hatte.

Tatsächlich entdeckte Schwartz seinen Fehler (oder, je nach Standpunkt, einen Computerfehler) erst, als die Anwälte der Fluggesellschaft in einem neuen Schriftsatz darauf hinwiesen, dass die Fälle nicht existierten.

Der Anwalt, der den Fall erstellt hat, Steven A. Schwartz von Levidow, Levidow & Oberman, sah sich am Donnerstag dem Zorn des Gerichts ausgesetzt, als er in einer eidesstattlichen Erklärung erklärte, dass er für seine Nachforschungen das Programm der künstlichen Intelligenz genutzt habe. Legal, eine Quelle, die bewiesen hat unzuverlässig sein. Schwartz, der drei Jahrzehnte lang in New York als Anwalt tätig war, sagte Richter P. Kevin Castel, dass er nicht die Absicht habe, das Gericht oder die Fluggesellschaft in die Irre zu führen. Schwartz sagte, er habe ChatGPT noch nie verwendet und sei sich daher der Möglichkeit nicht bewusst, dass der Inhalt gefälscht sein könnte.

Siehe auch  ChatGPT-Hersteller OpenAI erwägt einen App-Store für KI-Software: Bericht

Er habe, so sagte er zu Richter Castel, das Programm gebeten, „zu überprüfen, ob die Fälle real waren“. Und ChatGPT antwortete, dass dies der Fall sei.

Schwartz sagte, er bereue es zutiefst, sich auf ChatGPT verlassen zu haben und werde dies auch in Zukunft nie tun, ohne dessen Authentizität gründlich zu überprüfen.

Richter Castel sagte in einem Beschluss, er sei mit einem beispiellosen Umstand konfrontiert worden, einem „juristischen Vorbringen voller falscher Gerichtsentscheidungen, mit „falschen Zitaten und falschen internen Zitaten“. Er ordnete eine Anhörung am 8. Juni an, um mögliche Sanktionen zu besprechen.

Eine Technologie, die oft Fakten und Quellen erfindet

ChatGPT wurde Ende 2022 eingeführt und war sofort ein Erfolg. Der Chatbot ist Teil einer Familie neuer Technologien namens generative KI, die Gespräche führen kann, die so organisch und normal sind, dass ChatGPT manchmal einen eigenen Willen zu haben scheint. Aber die Technologie ist notorisch ungenau und erfindet oft Fakten und Quellen für Fakten, die völlig falsch sind. Das Konkurrenzprodukt von google, Bard, weist ähnliche Probleme auf.

Aber nichts davon hat die Menschen davon abgehalten, diese experimentelle Technologie so zu nutzen, als wäre sie eine zuverlässige Informationsquelle.

Stephen Gillers, Professor für Rechtsethik an der New York University School of Law, sagte, das Problem sei besonders akut bei Anwälten, die über den Wert und die Gefahren von KI-Software wie ChatGPT sowie die Notwendigkeit diskutieren, alle von ihnen bereitgestellten Informationen zu überprüfen. Er fügte hinzu, dass Anwälte sich darüber im Klaren sein sollten, dass die Verwendung von ChatGPT gegen den Kodex der Berufsethik verstoßen könnte, der von Anwälten verlangt, bei der Vertretung ihrer Mandanten mit Sorgfalt und Geschick zu handeln.

Wenn Sie ChatGPT verwenden, ohne zu überprüfen, was darin steht, sind Sie unverantwortlich“, sagte er. Und wenn Sie überprüfen, was er sagt, und feststellen, dass es falsch ist, sind Sie unehrlich.

Die aktuelle Diskussion innerhalb der Anwaltskammer sei, wie genau das vermieden werden könne, was dieser Fall beschreibe, sagte Gillers. Sie können die Ausgabe nicht einfach ausschneiden und in Ihre Gerichtsdokumente einfügen.

Siehe auch  Erfolge und Misserfolge im Unternehmen: NVIDIA setzt auf generative KI, ChatGPT benötigt Unternehmensleitplanken und die Suche nach dem zusammensetzbaren Unternehmen geht weiter

Der Fall von Robert Mata c. Avianca Inc. deutet darauf hin, dass es für Angestellte noch Zeit gibt, bevor Bots sie ersetzen können.

Wie die Täuschung entdeckt wurde

Alles begann, als Mata am 27. August 2019 Passagier des Avianca-Fluges 670 von El Salvador nach New York war, als ein Mitarbeiter der Fluggesellschaft ihn mit dem Servicewagen schlug, heißt es in der Beschwerde. Nachdem Mata eine Klage eingereicht hatte, reichte die Fluggesellschaft Unterlagen ein, in denen sie beantragte, die Klage wegen Ablaufs der Verjährungsfrist abzuweisen.

In einem im März eingereichten Schriftsatz sagten Matas Anwälte, der Prozess solle fortgesetzt werden, und untermauerten ihren Fall mit Verweisen und Zitaten aus den zahlreichen Gerichtsentscheidungen, die inzwischen widerlegt wurden.

Dann schrieben die Anwälte von Avianca an Richter Castel und teilten mit, dass sie die in dem Schriftsatz genannten Fälle nicht finden könnten. Was es betrifft Varghese c. China Southern Airlines, sagten sie, sie hätten diesen Fall nicht anhand der Bildunterschrift oder des Zitats oder irgendeinen ähnlichen Fall lokalisieren können. Sie verwiesen auf ein langes Zitat aus der angeblichen Varghese-Entscheidung, das in dem Schriftsatz enthalten ist. Der Unterzeichner konnte dieses Zitat oder etwas Ähnliches jedenfalls nicht finden, schrieben die Anwälte von Avianca. Tatsächlich, fügten die Anwälte hinzu, handelte es sich bei dem Zitat, das von Varghese selbst stammte, um etwas namens „ Zicherman c. Korean Air Lines Co. Ltd.eine Stellungnahme, die angeblich vom Berufungsgericht der Vereinigten Staaten für 11 abgegeben wurdee Rennstrecke im Jahr 2008. Sie sagten, sie könnten es auch nicht finden.

Richter Castel forderte die Anwälte von Mata auf, Kopien der in ihrem Schriftsatz erwähnten Gutachten vorzulegen. Anwälte legten ein Kompendium von acht vor; In den meisten Fällen wurden das Gericht und die Richter, die sie ausgestellt haben, sowie die Gerichtsnummern und die Daten genannt.

Die Kopie der angeblichen Varghese-Entscheidung ist beispielsweise sechs Seiten lang und besagt, dass sie von einem Mitglied eines aus drei Richtern bestehenden Gremiums aus dem 11. Jahrhundert verfasst wurdee Schaltkreis. Aber Aviancas Anwälte teilten dem Richter mit, dass sie weder diese noch die anderen Meinungen in Gerichtsakten oder juristischen Datenbanken finden könnten.

Bart Banino, Anwalt von Avianca, sagte, seine Kanzlei Condon & Forsyth sei auf Luftfahrtrecht spezialisiert und seine Anwälte könnten erkennen, dass die in der Akte erwähnten Fälle nicht real seien. Er fügte hinzu, dass sie vermutet hätten, dass ein Chatbot im Spiel gewesen sein könnte.

A

Abschluss

Siehe auch  Auswirkungen von ChatGPT Choice Overload auf die Entscheidungsfindung enthüllt

Dieser Vorfall wirft Fragen zu den ethischen und rechtlichen Grenzen des Einsatzes generativer KI im juristischen Bereich auf. Einige Experten behaupten, dass ChatGPT ein nützliches Tool zur Steigerung der Kreativität und Produktivität von Anwälten sein kann, vorausgesetzt, sie prüfen die bereitgestellten Informationen sorgfältig. Andere warnen vor den Risiken von Manipulation, Fehlinformationen und Betrug, die ChatGPT mit sich bringen kann.

„ChatGPT ist eine faszinierende Technologie, aber auch gefährlich“, sagte David Ryan Polgar, Gründer des Digital Citizenship Institute, einer Organisation, die den verantwortungsvollen Umgang mit Technologie fördert. Sie müssen bei der Verwendung von ChatGPT sehr vorsichtig sein, da es uns leicht in die Irre führen oder uns dazu bringen kann, Dinge zu sagen, die wir nicht so meinen.

Polgar fügte hinzu, dass ChatGPT-Benutzer transparent darüber sein sollten, ob sie das Programm verwenden, und immer ihre Quellen angeben sollten. Er schlug außerdem vor, dass Gerichte und Universitäten klare Regeln für die akzeptable Nutzung von ChatGPT im juristischen Bereich festlegen. ChatGPT sei kein Ersatz für kritisches Denken und gründliche Recherche, sagte er. Es ist ein Werkzeug, das klug und ethisch eingesetzt werden muss.

Abschließend möchte ich sagen, dass ChatGPT eine Technologie ist, die das Potenzial hat, die Welt zu verändern, aber auch das Potenzial hat, sie zu zerstören. Es liegt an uns, zu entscheiden, wie wir es nutzen wollen.

Quellen: Roberto Mata gegen AviancaZeiten

Und du ?

Fleche Haben Sie jemals ChatGPT oder eine andere generative KI verwendet? Wenn ja, aus welchen Gründen und mit welchen Ergebnissen? Fleche Was halten Sie von den Vorteilen und Risiken von ChatGPT im juristischen Bereich? Halten Sie ChatGPT für ein nützliches oder gefährliches Tool für Anwälte? Fleche Wie überprüfen Sie die Zuverlässigkeit und Authentizität der Informationen, die Sie online finden? Welche Anzeichen weisen Sie darauf hin, dass die Informationen möglicherweise falsch sind oder von ChatGPT erfunden wurden? Fleche Was halten Sie von den möglichen Sanktionen gegen den Anwalt, der ChatGPT verwendet hat, um fiktive Fälle zu zitieren? Glauben Sie, dass er unverantwortlich oder unehrlich gehandelt hat? Fleche Wie wird sich ChatGPT Ihrer Meinung nach in Zukunft weiterentwickeln? Welche Chancen und Risiken stellt ChatGPT für die Gesellschaft dar?

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein