chatgpt mag intelligent genug sein, um die Anwaltsprüfung zu bestehen, aber Anwälte sollten Vorsicht walten lassen, bevor sie sich bei der Abwicklung juristischer Geschäfte auf die Plattform der künstlichen Intelligenz („KI“) verlassen.
Am 22. Juni 2023 erließ Richter P. Kevin Castel vom Südbezirk von New York einen langwierigen Beschluss, mit dem er zwei Anwälte für die Einreichung eines von ChatGPT verfassten Schriftsatzes sanktionierte. Richter Castel tadelte die Anwälte und erklärte, dass die Anwälte „ihre Verantwortung aufgegeben“ hätten, indem sie einen Schriftsatz voller gefälschter Gerichtsmeinungen, Zitate und Zitate eingereicht hätten, obwohl „an sich nichts Unangemessenes daran sei, ein zuverlässiges Werkzeug der künstlichen Intelligenz zur Hilfeleistung zu nutzen“.
Der zugrunde liegende Streit hinter der Stellungnahme von Richter Castel war eine Klage wegen Personenschadens. Roberto Mata, der Mandant der beiden sanktionierten Anwälte, wollte die Fluggesellschaft Avianca für eine Verletzung haftbar machen, die er erlitten hatte, als er 2019 während eines Fluges von einem Servierwagen aus Metall angefahren wurde. Als Reaktion auf diese Vorwürfe reichte Avianca einen Antrag auf Abweisung ein dass die Verjährungsfrist abgelaufen sei. Die Anwälte von Herrn Mata reichten daraufhin einen zehnseitigen Schriftsatz ein, der Gegenstand der Anordnung von Richter Castel war, und argumentierten, dass der Fall fortgesetzt werden sollte. Die Anwälte von Avianca waren nicht in der Lage, das in dem Schriftsatz zitierte Gesetz zu finden und machten das Gericht darauf aufmerksam. Wie Richter Castel in seinem Beschluss feststellte, machten die Anwälte von Herrn Mata an diesem Punkt einen schwerwiegenden Fehler. Anstatt ihren Auftrag zurückzuziehen, „verdoppelten“ sie ihre Lügen und „begannen erst viel später, die Wahrheit herauszuspucken“.
Bei der Anhörung zu den Sanktionen erklärte einer der Anwälte von Herrn Mata, dass er, obwohl er einige der bei der Suche nach ihnen generierten Fälle nicht finden konnte, „unter der falschen Annahme arbeitete, dass diese Website [i.e., ChatGPT] kann unmöglich selbst Fälle erfinden.“ Obwohl diese Annahme bestenfalls falsch war, hat die Plattform für künstliche Intelligenz tatsächlich reale Fälle und die Namen echter Richter in einige der erfundenen Entscheidungen eingebunden. Die Stellungnahme von Richter Castel bietet eine detaillierte Analyse einer solchen Stellungnahme: Varghese gegen China Southern Airlines Co., Ltd.925 F.3d 1339 (11Th Zir. 2019), die die sanktionierten Anwälte dem Gericht vorgelegt haben. Der Varghese Die Entscheidung wird so dargestellt, als ob sie von drei Richtern des elften Bezirks gefällt worden sei. Nach Ansicht von Richter Castel weist die Entscheidung zwar „Stil- und Begründungsfehler auf, die in Entscheidungen des Berufungsgerichts der Vereinigten Staaten im Allgemeinen nicht auftauchen“ und enthält eine rechtliche Analyse, die ansonsten „Unsinn“ ist, sie bezieht sich jedoch tatsächlich auf etwas Reales Fälle. Wenn sie mit der Frage konfrontiert wird, ob der Fall real ist, verdoppelt sich die KI-Plattform selbst und erklärt, dass der Fall „tatsächlich existiert und in juristischen Forschungsdatenbanken wie Westlaw und LexisNexis zu finden ist“.
Als Reaktion auf das Fehlverhalten der Anwälte erließ Richter Castel eine Sanktionsanordnung, in der er die Anwälte gemäß Regel 11 sanktionierte und ihnen eine gesamtschuldnerische Geldstrafe von 5.000 US-Dollar auferlegte. Um sicherzustellen, dass die Strafe „ausreichend, aber nicht höher als notwendig war, um die Ziele der spezifischen und allgemeinen Abschreckung zu fördern“, forderte Richter Castel außerdem keine Entschuldigung, da eine „erzwungene Entschuldigung“, wie er schrieb, „keine aufrichtige Entschuldigung“ sei.
Da die KI-Technologie immer weiter verbreitet wird, sollten die Meinung von Richter Castel und das Verhalten dieser beiden sanktionierten Anwälte die Fachleute dazu ermahnen, vorsichtig zu sein, wenn sie sich auf irgendeine Art von Technologie verlassen, ganz zu schweigen von der KI-Technologie. Auch wenn dieser Skandal einer der ersten war, wird er wahrscheinlich nicht der letzte sein. Tatsächlich hat ein Bundesbezirksrichter in Texas, Richter Brantley Starr, kürzlich eine Anordnung erlassen, in der Anwälte davor gewarnt werden, künstliche Intelligenz – einschließlich ChatGPT, Harvey.AI oder google Bard – bei der Ausarbeitung juristischer Schriftsätze zu verwenden. Richter Starr erklärte unter anderem: „Während Anwälte einen Eid schwören, um ihre persönlichen Vorurteile, Vorurteile und Überzeugungen beiseite zu legen, um das Gesetz treu einzuhalten und ihre Mandanten zu vertreten, ist generative künstliche Intelligenz das Produkt einer Programmierung, die von Menschen entwickelt wurde, die nicht schwören mussten.“ so ein Eid. Als solche sind diese Systeme keinem Klienten, der Rechtsstaatlichkeit oder den Gesetzen und der Verfassung der Vereinigten Staaten (oder, wie oben angesprochen, der Wahrheit) verpflichtet.“ Unter anderem aus diesem Grund kam Richter Starr zu dem Schluss, dass alle Anwälte und Pro-Se-Prozessparteien vor ihm eine Bescheinigung einreichen müssen, die bescheinigt, dass entweder kein Teil ihres Briefings „generative künstliche Intelligenz“ verwendet hat oder dass jede mit dieser Technologie verfasste Sprache auf ihre Richtigkeit überprüft wurde ein Mensch.
Auch wenn es wahr sein mag, dass automatisierte künstliche Intelligenz den Menschen eines Tages völlig überlisten wird, so ganz ist die Technologie noch nicht ausgereift. Da diese Technologie darüber hinaus „an kein Pflicht-, Ehren- oder Gerechtigkeitsgefühl gebunden ist“, wie Richter Starr warnt, sollten Anwälte aufmerksam sein, bevor sie sich in wesentlichen Teilen darauf verlassen. Möglicherweise ist eine menschliche Note niemals ersetzbar.
[View source.]