BOSTON – Während Angehörige der Anwaltschaft herausfinden, wie sie das Potenzial künstlicher Intelligenz bei der Verwaltung ihrer Kanzleien am besten nutzen können, sendet das jüngste Missgeschick zweier New Yorker Anwälte für Personenschäden eine Botschaft, die nicht klarer sein könnte: Gehen Sie mit Vorsicht vor.
Letzten Monat verhängte ein Bundesrichter im Rahmen einer Sanktionsanordnung nach Regel 11 eine Strafe in Höhe von 5.000 US-Dollar gegen ein New Yorker Unternehmen für Personenschäden und zwei seiner Anwälte. Die Geldbuße wurde verhängt, weil die Anwälte einen von chatgpt erstellten Schriftsatz eingereicht hatten, der sechs falsche Fallzitate enthielt.
„Peter LoDuca, Steven A. Schwartz und die Anwaltskanzlei Levidow, Levidow & Oberman PC haben ihre Verantwortung aufgegeben, als sie mit gefälschten Zitaten und Zitaten, die mit dem künstlichen Intelligenztool ChatGPT erstellt wurden, nicht existierende Rechtsgutachten einreichten, und hielten dann weiterhin an den gefälschten Gutachten fest, nachdem Gerichtsbeschlüsse ihre Existenz in Frage gestellt hatten“, schrieb der Richter des US-Bezirksgerichts P. Kevin Castel in seinem Beschluss vom 22. Juni im Fall Mata v. Avianca, Inc.
Kas R. DeCarvalho, Anwalt in Johnston, Rhode Island, sagt, dass die Anwaltschaft gerade erst beginnt, die Auswirkungen der KI-Revolution auf andere Wirtschaftszweige zu spüren.
„Was in New York passiert ist, ist sicherlich eine warnende Geschichte für den Rest von uns, die als Anwalt tätig sind“, sagt der Partner von Pannone Lopes, der Technologieunternehmen und andere Unternehmen in einer Reihe von Angelegenheiten vertritt, darunter künstliche Intelligenz und Cyberrecht. „Die Geschwindigkeit der Entwicklung insgesamt kann nicht hoch genug eingeschätzt werden. Es ist absolut exponentiell. Vor 24 Monaten hätten wir mit ChatGPT nicht rechnen können.“
Laut DeCarvalho sollten Anwälte die KI im Großen und Ganzen so angehen, wie sie es mit anderen Technologietools tun, die sie in ihrer Praxis gewohnt sind.
„Die oberste Anforderung, unseren Mandanten eine angemessene und fundierte Rechtsberatung zu bieten, ist nach wie vor in vollem Umfang gegeben“, sagt er.
Einige Praktiker sind verblüfft darüber, dass die sanktionierten Anwälte so viel Vertrauen in eine neue Technologie setzten und es versäumten, den einfachen Schritt zu unternehmen, das ChatGPT-Arbeitsprodukt auf Fehler zu überprüfen, bevor sie das Dokument vor Gericht einreichten.
„Als ich zum ersten Mal davon las, war mein Eindruck eine Mischung aus Belustigung und Entsetzen darüber, dass es zugelassen wurde“, sagt Timothy V. Fisher, Mitglied der Praxisgruppe für KI und maschinelles Lernen bei Pierce Atwood in Boston.
John W. Weaver, Vorsitzender der KI-Übungsgruppe bei McLane Middleton in Woburn, stimmt dem zu.
„Aus der Beschreibung des Gerichts geht hervor, dass die Verantwortung eindeutig bei den Menschen liegt. Das ist kein Versagen der Technologie“, sagt Weaver, der Anwälten zumindest vorerst nicht von der Verwendung von ChatGPT rät.
„Wir überschätzen, was die Technologie in den nächsten zwei Jahren leisten wird, und unterschätzen, was sie in den nächsten zehn Jahren leisten wird“, sagt Weaver. „Sobald wir die ersten paar Hürden überwunden haben und ein paar Iterationen des Entwicklungszyklus haben, werden diese viel zuverlässiger werden. Für mich ist der heilige Gral für Anwälte eine Art KI, ähnlich wie ChatGPT, die auf Ihrem Server läuft und Zugriff auf Ihre Dokumente hat.“
Jared D. Spinelli, Anwalt für Familienrecht in Boston, ist der Ansicht, dass die im New Yorker Fall aufgeworfenen ethischen Fragen eindeutig mit den Verhaltensregeln von Massachusetts in Einklang stehen. Spinelli verweist auf Regel 3.3, in der es um die Offenheitspflicht eines Anwalts vor einem Gericht geht. Regel 3.3(a)(1) besagt, dass ein Anwalt nicht wissentlich „vor einem Gericht eine falsche Tatsachen- oder Rechtserklärung abgeben oder es unterlassen darf, eine falsche Tatsachen- oder Rechtserklärung, die der Anwalt zuvor gegenüber dem Gericht gemacht hat, zu korrigieren“.
„Sobald Ihnen klar wird, dass Sie entweder eine falsche Aussage gemacht haben oder der Verdacht besteht, dass etwas, das Sie gesagt haben, falsch war, müssen Sie sofort Maßnahmen ergreifen, um sich selbst zu korrigieren“, sagt Spinelli.
Die Lehre von Mata ist, dass Anwälte sich daran erinnern müssen, Fakten und Zitate zu prüfen, als ob das KI-Programm ein Associate oder Rechtsanwaltsgehilfe wäre, fügt er hinzu.
Welche Due Diligence?
Im Februar 2022 verklagte der Kläger in Mata Avianca Airlines vor einem Gericht im US-Bundesstaat New York und behauptete, er habe sich Verletzungen zugezogen, als ein metallener Servierwagen während eines Fluges von El Salvador zum John F. Kennedy Airport sein linkes Knie traf. Da es sich bei dem Fall um eine Verletzung auf einem internationalen Flug handelte, verwies der Beklagte den Fall gemäß dem Montrealer Übereinkommen an ein Bundesgericht.
Wie Richter Castel später feststellte, hatte Rechtsanwalt Schwartz, während Anwalt LoDuca nach seiner Absetzung erschien, die ursprüngliche Beschwerde eingereicht und sich weiterhin mit der materiellen Bearbeitung des Falles befasst.
Avianca reichte einen Antrag auf Abweisung ein und machte geltend, dass die Ansprüche des Klägers nach dem Montrealer Übereinkommen verjährt seien. Als Reaktion darauf verfasste Schwartz ein Einspruchsmemorandum, in dem er argumentierte, dass die Verjährungsfrist gemäß der Konvention durch den Insolvenzantrag der Fluggesellschaft verlängert worden sei.
Schwartz sagte später aus, dass er ChatGPT zum Verfassen des Schriftsatzes genutzt habe, wobei er davon ausgegangen sei, dass die Website „unmöglich Fälle aus eigener Kraft fabrizieren könne“.
LoDuca reichte das Memorandum vor Gericht ein. Über Loducas Unterschriftszeile hieß es in dem Memo: „Ich erkläre unter Strafe des Meineids, dass das Vorstehende wahr und richtig ist.“
LoDuca sagte später bei der Anhörung zu den Sanktionen aus, dass er keine der in dem von Schwartz erstellten Schriftsatz genannten Behörden überprüft habe, und erklärte, dass er „im Grunde nach einem Fluss suchte, [to] Stellen Sie sicher, dass nichts Ungewöhnliches oder große grammatikalische Fehler vorliegen.“
Craig R. Smith, Partner bei der Firma Lando & Anastasi für geistiges Eigentum in Boston, findet das unglaublich.
„Ich kann mir nicht einmal vorstellen, dass es ein Briefing gibt, bei dem nicht jemand diese Zitate überprüft und sicherstellt, dass sie korrekt sind“, sagt er.
DeCarvalho fügt hinzu: „Wenn Sie während Ihrer Recherche einen Fall auf den Tisch bringen, der absolut auf den Punkt zu kommen scheint, mit dem Sie argumentieren wollen, wenn Sie diesen Fall nicht parieren und feststellen, dass diese Auffassung immer noch das Gesetz des Landes ist, dann ist das gleichbedeutend mit Fehlverhalten.“
Nachdem LoDuca das Memorandum of Law des Klägers eingereicht hatte, machte die beklagte Fluggesellschaft das Gericht darauf aufmerksam, dass in dem Schriftsatz des Klägers Rechtsprechung angeführt wurde, die nicht auffindbar war oder nicht für den Vorschlag, für den sie zitiert wurden, stand.
Beispielsweise zitierte das Memo des Klägers „Varghese gegen China Southern Airlines Co., Ltd., 925 F.3rd 1339 (11th Cir. 2019)“ – ein Fall, der sich später als nicht existent erwies – für die Behauptung, dass die Aussetzung im Insolvenzverfahren des Beklagten die Verjährungsfrist des Montrealer Übereinkommens verlangsamte.
Schwartz würde in einer eidesstattlichen Erklärung einen Austausch beschreiben, den er mit ChatGPT über den Vorwurf des 11. Bezirks geführt hatte, nachdem der Angeklagte seine Bedenken gegenüber dem Gericht geäußert hatte.
„Ich habe ChatGPT direkt gefragt, ob einer der zitierten Fälle ‚Varghese gegen China Southern Airlines Co. Ltd.‘ … war ein echter Fall“, schrieb Schwartz. „Basierend auf dem, was mir über ChatGPT klar wurde, hatte ich den starken Verdacht, dass dies nicht der Fall war. ChatGPT antwortete jedoch erneut, dass Varghese „tatsächlich existiert“ und teilte mir sogar mit, dass es auf Westlaw und LexisNexis verfügbar sei, im Gegensatz zu dem, was das Gericht und der Anwalt des Angeklagten sagten.“
„Halluzinierende“ KI-Modelle?
Gemäß der Bundeszivilprozessordnung 11(b)(2) bescheinigt ein Anwalt, indem er „dem Gericht einen Schriftsatz, einen schriftlichen Antrag oder ein anderes Dokument vorlegt“, „, dass nach bestem Wissen, besten Informationen und Gewissen der Person, die nach einer unter den gegebenen Umständen angemessenen Untersuchung erstellt wurde, … die Ansprüche, Verteidigungen und anderen rechtlichen Einwände durch geltendes Recht gerechtfertigt sind.“
In seinem Sanktionsbeschluss vom 22. Juni stellte der Richter fest, dass die Anwälte LoDuca und Schwartz beide in „subjektiver Bösgläubigkeit“ gehandelt hatten, und stellte fest, dass sie gemeinsam mit ihrer Anwaltskanzlei gesamtschuldnerisch für die Strafe von 5.000 US-Dollar haftbar waren, die für ihre Verstöße gegen Regel 11(b)(2) verhängt wurde.
DeCarvalho sagt, er sei überrascht, dass die Sanktionen nicht härter ausfielen.
„Meine persönliche Meinung ist, dass sie mit einer Geldstrafe von 5.000 US-Dollar glimpflich davongekommen sind“, sagt DeCarvalho. „Sie werden Glück haben, wenn sie nicht von ihrem Mandanten verklagt werden.“
Fisher hat seine eigene Theorie darüber, wie ChatGPT in Mata so einen Fehler gemacht hat.
„Da es sich um ein generatives Modell handelt, besteht sein Zweck darin, Dinge zu ‚erfinden‘, und zwar durch die Nachahmung textueller und semantischer Muster, die es in Trainingsdaten gesehen hat“, sagt Fisher. „Aber es ist ein bekanntes Phänomen dieser großen KI-Modelle, dass sie ‚halluzinieren‘, was bedeutet, dass sie sehr selbstbewusst eine Antwort auf eine Frage geben, die man ihnen stellt.“ Was Sie zurückbekommen, mag auf den ersten Blick plausibel erscheinen, ist aber in Wirklichkeit völlig ungenau.“
Smith bietet eine andere Theorie an.
„Vielleicht ist es einfach ein natürliches Versagen dieser frühen Systeme, dass sie bei der Betrachtung eines Rechtsfalls möglicherweise nicht verstehen, was Zitate bedeuten und worauf sie sich beziehen“, sagt Smith. „Es besteht die Möglichkeit, dass [the program is] nicht die richtige Verbindung zwischen einem bestimmten Fall und einem bestimmten Zitat herstellt, um zu verstehen, dass dieses Zitat nur verwendet werden kann, wenn es sich auf diesen bestimmten Fall bezieht.“
Vertraulichkeit des Kunden
Als Anwalt für Mandanten im Bereich der Entwicklung von KI-Produkten sieht Fisher das Versprechen der Technologie.
„Ich würde gerne nutzen [AI] in meiner eigenen Praxis, um einige Effizienzsteigerungen zu erzielen“, sagt Fisher. „Aber die Technologie ist offensichtlich noch nicht so weit.“
Obwohl es Nachteile gibt, sind für Smith aktuelle KI-Systeme bereits ein wertvolles Werkzeug.
„Sie können bei Dingen hilfreich sein, die für die Arbeit eines jeden Anwalts von entscheidender Bedeutung sind: Dokumente überprüfen, Daten zusammenfassen und Informationen bereitstellen, die aus einem großen Datensatz stammen“, sagt er. „Das sind Dinge, auf die sich Anwälte weiterhin verlassen werden, denn KI hat den Vorteil, dass sie einige dieser Aufgaben unglaublich schnell und effizient erledigen kann.“
Abgesehen davon, dass Anwälte weitere Fortschritte in der Technologie sehen müssen, bevor sie KI vorbehaltlos nutzen, dürfte die Frage des Schutzes vertraulicher Kundeninformationen, die für die Verarbeitung durch KI-Programme erforderlich sind, um brauchbare Lösungen zu generieren, die größte Sorge sein.
„Vertraulichkeit ist ein großes Problem“, sagt Fisher. „Mit anderen Worten, viele dieser KI-Modelle, von denen Sie in den Nachrichten hören, sind Open Source [maintained by] ein Dritter. Es gibt ein paar Probleme, die Sie damit haben. Sie geben vertrauliche Informationen außerhalb Ihres Unternehmens und Ihres Kunden weiter.“
Das zweite Problem besteht laut Fisher darin, dass „Sie nicht unbedingt wissen, ob sie Ihre Daten zum Trainieren ihres Modells verwenden werden.“ Dieses Modell kann dann basierend auf Ihren vertraulichen Daten die Frage einer anderen Person beantworten.“
Aus diesem Grund erwartet Fisher, dass Anwaltskanzleien versuchen werden, interne Programme zu installieren, die geschlossene Systeme zum Schutz der Kundendaten bereitstellen.
„Du kannst ein nehmen [AI] „Sie können ein Modell kaufen, das bereits vorab trainiert ist, es intern verlegen oder Serverraum mieten, zu dem nur Sie Zugriff haben und der über alle notwendigen Sicherheiten verfügt“, sagt er. „Dann können Sie das Modell genau auf die Aufgaben abstimmen, die es ausführen soll.“
Auch in der Anwaltschaft geht Smith davon aus, dass firmeninterne KI-Modelle zum Standard werden.
„Auf diese Weise könnten Sie ein KI-Modell auf der Grundlage der von Ihnen bereits verfassten Briefings, der bereits durchgeführten Recherchen und der Arbeit, die Sie bereits über viele Jahre hinweg durchgeführt haben, trainieren“, sagt Smith. „Wenn Sie dann dieses KI-System verwenden und mit ihm interagieren, wissen Sie, dass es sich bei den Informationen, die Sie abrufen, um Informationen handelt, die Sie bereits als zuverlässig erachten, da sie Teil Ihres eigenen Datensatzes sind. Das wäre eine fantastische Möglichkeit, alle Daten zu nutzen, die das Unternehmen bereits erstellt hat.“
VERWANDT:
Richter verhängt gegen Anwälte eine Geldstrafe von 5.000 US-Dollar wegen gefälschter ChatGPT-Rechtsprechung
Anwälte: ChatGPT hat uns dazu verleitet, gefälschte Fälle zu zitieren
Kommentar: Erschließen Sie das Potenzial von ChatGPT-Plugins in Ihrer Praxis
Risikoscheue Anwälte gehen vorsichtig mit ChatGPT um
l