Wären die Fälle real gewesen, wären die Fälle ein überzeugender Präzedenzfall dafür gewesen, dass ein geschiedener Vater seine Kinder nach China gebracht hätte.
Doch anstatt den Gerichtssieg zu genießen, wurde der Anwältin eines Millionärs aus Vancouver, der in eine erbitterte Trennung verwickelt war, gesagt, sie solle die Anwälte der Ex-Frau ihres Mandanten persönlich für die Zeit entschädigen, die sie brauchten, um zu erfahren, dass die Fälle, die sie zu zitieren hoffte, von ChatGPT heraufbeschworen wurden.
In Eine Entscheidung wurde am Montag veröffentlichtrügte ein Richter des Obersten Gerichtshofs von BC den Anwalt Chong Ke, weil er in einem im vergangenen Dezember eingereichten Antrag zwei KI-„Halluzinationen“ aufgenommen hatte.
Die Fälle haben es nie in Kes Argumentation geschafft; Sie wurden zurückgezogen, als sie erfuhr, dass sie nicht existierten.
Richter David Masuhara sagte, er glaube nicht, dass der Anwalt das Gericht täuschen wollte – aber er sei trotzdem beunruhigt.
„Wie dieser Fall leider deutlich gemacht hat, ist generative KI immer noch kein Ersatz für die Fachkompetenz, die das Justizsystem von Anwälten verlangt“, schrieb Masuhara in einem „Abschlusskommentar“ im Anhang zu seinem Urteil.
„Kompetenz bei der Auswahl und Nutzung jeglicher Technologietools, auch solcher, die auf KI basieren, ist von entscheidender Bedeutung.“
„Es wurde festgestellt, dass es nicht existiert“
Ke vertritt Wei Chen, einen Geschäftsmann, dessen Nettovermögen laut chinesischem Scheidungsverfahren zwischen 70 und 90 Millionen US-Dollar liegen soll. Chens Ex-Frau Nina Zhang lebt mit ihren drei Kindern in einem 8,4-Millionen-Dollar-Haus in West Vancouver.
Letzten Dezember, ordnete das Gericht an Chen soll Zhang monatlich 16.062 US-Dollar Unterhalt zahlen, nachdem er sein Jahreseinkommen auf 1 Million US-Dollar geschätzt hat.
Die gefälschten Fälle tauchten in einem Antrag für die Kinder des Paares auf, eine Reiseerlaubnis nach China zu erhalten. Der Anwalt zog die Fälle aus dem Antrag zurück, nachdem sich herausstellte, dass sie gefälscht waren. (Sean Kilpatrick/The Canadian Press)
Kurz vor diesem Urteil reichte Ke in Chens Namen einen Antrag ein, seinen Kindern die Reise nach China zu erlauben.
In der Antragsbekanntmachung wurden zwei Fälle angeführt: In einem Fall nahm eine Mutter ihr „Kind im Alter von 7 Jahren für sechs Wochen mit nach Indien“, und in einem anderen Fall gab sie dem Antrag einer „Mutter statt, mit dem Kind im Alter von 9 Jahren für vier Wochen zu einem Besuch nach China zu reisen“. ihre Eltern und Freunde.
„Diese Fälle stehen im Mittelpunkt der mir vorliegenden Kontroverse, da sich herausstellte, dass sie nicht existierten“, schrieb Masuhara.
Das Problem trat ans Licht, als Zhangs Anwälte Kes Büro mitteilten, dass sie Kopien der Fälle benötigten, um eine Antwort vorzubereiten, und sie anhand ihrer Zitierungskennungen nicht finden konnten.
Ke übermittelte einem Mitarbeiter, der an ihrer Stelle bei einer Gerichtsverhandlung erscheinen sollte, ein Entschuldigungsschreiben zusammen mit dem Eingeständnis, dass es sich bei den Fällen um Fälschungen handelte, aber die Angelegenheit wurde an diesem Tag nicht verhandelt und der Mitarbeiter gab Zhangs Anwälten keine Kopie.
Masuhara sagte, die Anwältin habe später eine eidesstattliche Erklärung abgegeben, in der sie ihr „Mangelwissen“ über die Risiken der Verwendung von ChatGPT und „ihre Entdeckung, dass die Fälle fiktiv waren, was sie als ‚demütigend‘ bezeichnet“ darlegte.
„Ich hatte nicht die Absicht, in dieser Angelegenheit fiktive Fälle zu generieren oder darauf zu verweisen. Das ist eindeutig falsch und ich würde es nicht wissentlich tun“, schrieb Ke in ihrer Aussage.
„Ich hatte nie die Absicht, mich auf fiktive Autoritäten zu verlassen oder das Gericht in die Irre zu führen.“
Keine Täuschungsabsicht
Der Vorfall scheint einer der ersten gemeldeten Fälle eines durch ChatGPT generierten Präzedenzfalls zu sein, der es in einen kanadischen Gerichtssaal geschafft hat.
Das Problem sorgte letztes Jahr in den USA für Schlagzeilen, als ein Anwalt aus Manhattan einen Bundesrichter um Gnade anflehte, nachdem er einen Schriftsatz eingereicht hatte, der sich ausschließlich auf Entscheidungen stützte, von denen er später erfuhr, dass sie von ChatGPT erfunden worden waren.
Ein Richter des Obersten Gerichtshofs von British Columbia hat Chong Ke dazu verurteilt, die Kosten für die Arbeit zu tragen, die der gegnerische Anwalt unternommen hat, um herauszufinden, dass zwei in einem Antrag angeführte Fälle durch künstliche Intelligenz erfunden wurden. (Ben Nelms/CBC)
Im Anschluss an diesen Fall warnte die BC Law Society vor der „zunehmenden Verwendung von KI-generiertem Material in Gerichtsverfahren“.
„Die Anwälte werden daran erinnert, dass die ethische Verpflichtung, die Richtigkeit der dem Gericht vorgelegten Materialien sicherzustellen, bei Ihnen liegt“, sagte die Gesellschaft in den an den Berufsstand versandten Leitlinien.
„Wenn Materialien mithilfe von Technologien wie ChatGPT generiert werden, wäre es ratsam, das Gericht entsprechend zu informieren.“
Zhangs Anwälte forderten Sonderkosten, die wegen verwerflichem Verhalten oder Verfahrensmissbrauch angeordnet werden können. Der Richter lehnte jedoch ab und sagte, er akzeptiere die „Aufrichtigkeit“ ihrer Entschuldigung gegenüber dem Anwalt und dem Gericht.
„Diese Beobachtungen zielen nicht darauf ab, das Geschehene herunterzuspielen, was ich – um es klarzustellen – alarmierend finde“, schrieb Masuhara.
„Vielmehr sind sie relevant für die Frage, ob Frau Ke eine Täuschungsabsicht hatte. Angesichts der Umstände komme ich zu dem Schluss, dass sie dies nicht getan hat.“
Der Richter sagte jedoch, Ke müsse die Kosten für die Schritte tragen, die Zhangs Anwälte unternehmen mussten, um die durch die gefälschten Fälle entstandene Verwirrung zu beseitigen.
Er wies die Anwältin außerdem an, ihre anderen Akten zu überprüfen: „Wenn eingereichte oder dem Gericht übergebene Materialien Fallzitate oder Zusammenfassungen enthalten, die von ChatGPT oder anderen generativen KI-Tools erhalten wurden, muss sie die gegnerischen Parteien und das Gericht unverzüglich benachrichtigen.“ „