Ön 6. Dezember 2023, Chong Ke, ein Anwalt der Kanzlei Westside Family Law in Vancouver, reichte für einen Mandanten, der mehr Zugang zu seinen Kindern forderte, einen Antrag beim Gericht ein. Die Anwälte der Mutter gingen den Antrag durch, um eine Antwort zu verfassen. Dabei fiel ihnen auf, dass zwei der im Antrag genannten Fälle nicht gefunden werden konnten. Das lag daran, dass sie nicht existierten. Ke hatte chatgpt, den von OpenAI entwickelten Chatbot, für seine Rechtsrecherche verwendet und war sich nicht bewusst, dass die Fälle, die er fand, fiktiv waren.
Die Rechtswissenschaft kann eine mühsame Angelegenheit sein, daher ist es nicht verwunderlich, dass Anwälte die Fähigkeit der KI nutzen, um Datenbanken mit Rechtstexten, Fallrecht, Gesetzen und Vorschriften zu durchforsten. Ein Tool, das Ergebnisse zusammenfassen und relevante Präzedenzfälle hervorheben kann, kann viel Zeit und Mühe sparen. Aber ChatGPT ist keine Suchmaschine, sondern ein großes Sprachmodell. Es trainiert mit Daten und generiert auf der Grundlage dessen, was es lernt, menschenähnliche Antworten. Diese kreative Ader verleiht dem Chatbot eine dunkle Seite: die Tendenz, falsche oder ungenaue Daten zu liefern, ein Phänomen, das als Halluzination bezeichnet wird.
Kes Fall war der erste, bei dem ein kanadischer Anwalt aufgrund generativer KI falsche Angaben machte. Auch in Massachusetts und Colorado kam es zu solchen Vorfällen. Letztes Jahr bereiteten sich die New Yorker Anwälte Steven A. Schwartz und Peter LoDuca laut juristischen Dokumenten auf eine Klage wegen Personenschadens gegen eine Fluggesellschaft vor. Als Schwartz die benötigten Gerichtsverfahren mithilfe von Fastcase, einer bekannten US-Rechtsdatenbank, nicht finden konnte, wandte er sich stattdessen an ChatGPT. Sein Schriftsatz enthielt sechs erfundene Zitate und Fälle mit falschem Datum oder falschen Namen. LoDuca, der eigentlich Schwartz‘ Arbeit beaufsichtigen sollte, sagte, es sei ihm „nie in den Sinn gekommen“, dass er der Technologie nicht vertrauen könne.
„Sobald ChatGPT Schlagzeilen machte, begannen wir diese Geschichten über gefälschte Fälle zu sehen, die vor Gericht zitiert wurden“, sagt Amy Salyzyn, außerordentliche Professorin an der juristischen Fakultät der Universität Ottawa, die sich auf Rechtsethik und Technologie spezialisiert hat. „Diese Geschichten sind wie Autounfälle. Man kann nicht wegsehen.“
Da immer mehr Anwälte KI-Chatbots in ihre Praxis integrieren, macht sich Salyzyn Sorgen, dass Verträge und Testamente erstellt werden, die möglicherweise nicht noch einmal geprüft werden. „Es scheint unvermeidlich, dass sich eines Tages ein Fehler in eine Rechtsentscheidung einschleicht“, sagt Salyzyn.
Wenn generative KI fehleranfällig ist, warum sollten Anwälte sie dann trotzdem verwenden? Schuld daran sind lange Arbeitszeiten und eine hohe Falllast. Eine landesweite Studie der Federation of Law Societies of Canada aus dem Jahr 2022 über die psychische Gesundheit von Anwälten ergab, dass mehr als die Hälfte aller Anwälte unter Burnout leiden und fast 60 Prozent der Rechtsexperten unter psychischen Problemen leiden. „Es ist verlockend, den einfachen Weg zu wählen, wenn man eine Deadline vor sich hat“, sagt Salyzyn.
KI ändert nichts an der Tatsache, dass Anwälte immer noch dafür verantwortlich sind, Anwälte zu sein. Anwälte, die KI einsetzen, sollten „die Verhaltensstandards einhalten, die von einem kompetenten Anwalt erwartet werden“, sagt Christine Tam, Direktorin für Kommunikation und Engagement bei der Law Society of British Columbia. Das bedeutet, dass sie überprüfen müssen, ob alles, was vor Gericht eingereicht wird, korrekt ist. Berufliche Peinlichkeit könnte für manche Anwälte die Motivation sein, sich zusammenzureißen. Ke wird derzeit von der Law Society of British Columbia wegen ihres Verhaltens untersucht. Schwartz und LoDuca wurden mit einer Geldstrafe von 5.000 US-Dollar belegt. Der Anwalt aus Colorado, Zachariah Crabill, wurde für 90 Tage suspendiert, nachdem er ChatGPT für juristische Recherchen verwendet hatte.
Anwälte müssen bereits an Fortbildungskursen zu neuen Technologien teilnehmen. Doch KI ist so transformativ, dass der verantwortungsvolle Umgang mit ihr praktische Erfahrung erfordert. Juristische Fakultäten beginnen, Kurse zu entwickeln, um Studenten Chatbots wie ChatGPT näherzubringen, und an der Queen's University und der University of New Brunswick werden immer mehr Rechtsberatungsstellen für KI eingerichtet.
Auch die Anwaltskammern nehmen das Thema ernst. In Ontario, British Columbia, Alberta, Saskatchewan und Manitoba haben sie spezifische Richtlinien erlassen. Die meisten dieser Richtlinien konzentrieren sich – wenig überraschend – auf Schäden wie Halluzinationen. Sie schreiben aber auch vor, dass Anwälte ihre Mandanten um ihre Zustimmung bitten müssen, wenn sie die Technologie einsetzen. Die Anwaltskammer von Ontario hat eine Checkliste erstellt, die Ihnen zeigt, wie Sie einen KI-Anbieter auswählen und wie Sie Ihre KI-Praktiken jährlich überprüfen können. Alberta verfolgt einen anderen Ansatz und konzentriert sich auf die positiven Aspekte, etwa wie man KI zum Verfassen von Briefen an Mandanten oder zum Erstellen von Fragen für Zeugen vor Gericht einsetzen kann.
Len Polsky, Autor des KI-Playbooks für die Law Society of Alberta, ist optimistisch, was die Technologie angeht. Er argumentiert, dass generative KI auch bei Aufgaben jenseits der juristischen Recherche hervorragende Ergebnisse liefern kann, etwa bei der Erstellung von Gliederungen für Dokumente, der Formulierung von Prozessfragen und dem Korrekturlesen von Rechtsgutachten. „Generative KI kann Anwälten helfen, der Öffentlichkeit bessere Rechtsdienstleistungen zu bieten, solange sie sie auf sichere und zuverlässige Weise nutzen“, sagt er. „Wir sagen nicht, dass man keine KI nutzen soll. Wir wollen, dass die Menschen [to] nutze es und sei schlau.“
Anwälte sind nicht die einzigen, die mit der Technologie zu kämpfen haben. Generative KI ist eine attraktive Option für Menschen, die rechtliche Hilfe benötigen, sich aber keinen Anwalt leisten können. Das Problem ist wiederum, dass es keine Garantie dafür gibt, dass die Benutzer genaue Informationen erhalten. Dies kann eine Gefahr für Menschen darstellen, die sich dafür entscheiden, sich selbst zu vertreten. In Großbritannien verwendete Felicity Harber neun von ChatGPT erfundene Zitate in ihrem Einspruch gegen die Zahlung von Grundsteuern. Als Jonathan Karlen gegen die Entscheidung Berufung einlegte, einem ehemaligen Mitarbeiter Schadensersatz zu zahlen, stellte das Eastern District Court of Appeals in Missouri fest, dass er die Zitate, auf die er sich zu seiner Verteidigung stützte, erfunden hatte. Nur zwei der 24 Fälle, die er verwendete, waren real. Karlen erklärte, er habe einen Online-Berater engagiert und nicht gewusst, dass der Berater bei der Erstellung des Schriftsatzes „künstliche Intelligenzhalluzinationen“ verwenden würde.
Canlii, eine beliebte kostenlose Website für Rechtsrecherchen in Kanada, hat den Trend erkannt, dass die Öffentlichkeit KI nutzt, und im vergangenen Jahr mit der Einführung eines eigenen generativen Tools begonnen. Das Unternehmen versucht, von den Rechtsstiftungen der Provinzen und Territorien Fördermittel zu erhalten, um Zusammenfassungen der Rechtsprechung und Gesetzgebung für jeden Standort zu erstellen. Bisher konnten sie Daten für Saskatchewan, Alberta, Manitoba, Prince Edward Island und den Yukon erhalten.
Die von Lexum, einer Tochtergesellschaft von Canlii, entwickelte Software ist nicht perfekt. Benutzer haben Fehler entdeckt, wie etwa falsche Beschriftungen oder Zusammenfassungen, denen die richtige rechtliche Analyse fehlte. Pierre-Paul Lemyre, Vizepräsident für Geschäftsentwicklung bei Lexum, sagt, das Tool habe eine Fehlerquote von 5 Prozent, weil manche Fälle zu lang oder zu komplex seien, um sie zusammenzufassen. Er erwartet jedoch, dass sich die Software verbessern wird, und möchte, dass sein Team von den Fehlern erfährt, um das Produkt zu optimieren. „Wir machen diese Arbeit, weil wir wollen, dass die Leute das Gesetz besser verstehen“, sagt er. „Die Leute brauchen bequemen und schnellen Zugang zu rechtlichen Informationen.“
Im Moment müssen Komfort und Geschwindigkeit mit einer sorgfältigen Umsetzung und Kontrolle einhergehen. Wir brauchen gemeinsame Maßnahmen von Gerichten, Regierung und Regulierungsbehörden, um Anwälte und die Öffentlichkeit über den Einsatz von KI aufzuklären und zu entscheiden, wie KI zum Nutzen und zum Schutz der Menschen eingesetzt werden kann. Andernfalls werden wir wieder Schlagzeilen über schlecht benehmende Anwälte sehen.