Ein Anwalt, der einen Schriftsatz voller gefälschter Gerichtsmeinungen und juristischer Zitate erstellt hat, die alle von chatgpt erstellt wurden, muss am Donnerstag vor einem Richter in Manhattan erscheinen und sich mit etwas viel Realerem auseinandersetzen: möglichen Sanktionen für sein Verhalten.

Die Anhörung wurde angeordnet, nachdem der Anwalt Steven A. Schwartz kürzlich zugegeben hatte, dass er das Programm für künstliche Intelligenz im Rahmen seiner Recherchen für den Auftrag genutzt hatte.

„Ich hatte einfach keine Ahnung, dass ChatGPT in der Lage ist, komplette Fallzitate oder Gerichtsgutachten zu fabrizieren, insbesondere auf eine Art und Weise, die authentisch wirkt“, sagte Herr Schwartz in einemErklärung, die am Dienstag beim Richter P. Kevin Castel vom Bundesbezirksgericht eingereicht wurde.

Herr Schwartz sagte in der Erklärung, dass er von ChatGPT durch seine Kinder im College-Alter und durch Artikel, die er gelesen hatte, erfahren habe, dass er es jedoch bisher nie beruflich genutzt habe. Er verwies auch auf die Explosion der Berichterstattung und den daraus resultierenden öffentlichen Spott, den er und seine Anwaltskanzlei Levidow, Levidow & Oberman ertragen mussten.

„Das war sowohl auf persönlicher als auch auf beruflicher Ebene zutiefst peinlich, da diese Artikel noch Jahre lang verfügbar sein werden“, schrieb Herr Schwartz.

Die Episode, die in einem ansonsten obskuren Rechtsstreit stattfand, hat die Tech-Welt in Atem gehalten, wo es eine wachsende Debatte über die Gefahren – sogar eine potenzielle existenzielle Bedrohung für die Menschheit – gibt, die von künstlicher Intelligenz ausgehen. Es hat auch Anwälte und Richter in ihren Bann gezogen, die zunächst auf muffige alte Gesetzbücher und dann auf Online-Datenbanken angewiesen waren, um die Argumente und Präzedenzfälle zu liefern, die sie brauchten.

Siehe auch  So nutzen Sie ChatGPT, um Ihre Cybersicherheitslage zu verbessern

„Dieser Fall hat in der gesamten Anwaltschaft Nachhall gefunden“, sagte David Lat, ein juristischer Kommentator. „Es ist ein bisschen so, als würde man sich ein Autowrack ansehen. Aber es ist auch ein wertvolles Anschauungsbeispiel für die Gefahren, die sich daraus ergeben, dass man sich in der Rechtspraxis auf KI-Tools verlässt.“

In dem Fall ging es um einen Mann namens Roberto Mata, der die Fluggesellschaft Avianca verklagt hatte und behauptete, er sei verletzt worden, als ihm während eines Fluges von El Salvador zum Kennedy International Airport in New York im August 2019 ein Servierwagen aus Metall das Knie getroffen habe.

Avianca forderte Richter Castel auf, die Klage abzuweisen, da die Verjährungsfrist abgelaufen sei. Die Anwälte von Herrn Mata antworteten mit einem zehnseitigen Schriftsatz, in dem sie mehr als ein halbes Dutzend Gerichtsentscheidungen zitierten, darunter Namen wie Martinez gegen Delta Air Lines, Zicherman gegen Korean Air Lines und Varghese gegen China Southern Airlines, um ihre Argumentation zu untermauern Die Klage sollte weitergeführt werden.

Doch nachdem die Anwälte von Avianca sagten, sie könnten die Fälle nicht lokalisieren, wies Richter Castel die Anwälte von Herrn Mata an, dem Gericht Kopien der Stellungnahmen zur Verfügung zu stellen. Sie legten ein Kompendium von acht der Entscheidungen vor.

Es stellte sich heraus, dass die Fälle nicht real waren.

Herr Schwartz entschuldigte sich diese Woche in einer Gerichtsakte und sagte, er habe einen „zutiefst bedauerlichen Fehler“ gemacht.

Die Anwälte von Herrn Schwartz und seiner Anwaltskanzlei forderten den Richter am Dienstag in einem Gerichtsverfahren auf, keine Sanktionen gegen den Anwalt oder die Kanzlei zu verhängen.

Siehe auch  Der „Vater“ von ChatGPT geriet ins Chaos, nachdem er seinen dritten CEO innerhalb von nur drei Tagen ersetzt hatte

„Sanktionen hätten keinen sinnvollen Zweck“, schrieben die Anwälte. „Herr. Schwartz und das Unternehmen sind bereits zum Aushängeschild für die Gefahren geworden, die mit neuen Technologien einhergehen. Ihre Lektion wurde gelernt.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein