„Ich war überglücklich, allein wegen der Kopfschmerzen, die mir dadurch erspart wurden“, sagte er der Washington Post. Doch seine Erleichterung war nur von kurzer Dauer. Als er sich das Briefing ansah, stellte er zu seinem Entsetzen fest, dass der KI-Chatbot mehrere gefälschte Klagezitate erfunden hatte.
Der 29-jährige Crabill entschuldigte sich beim Richter und erklärte, dass er einen KI-Chatbot verwendet habe. Der Richter habe ihn einer landesweiten Behörde gemeldet, die sich mit Anwaltsbeschwerden befasst, sagte Crabill.Im Juli wurde er aus seiner Anwaltskanzlei in Colorado Springs entlassen. Rückblickend würde Crabill ChatGPT nicht nutzen, sagt aber, dass es für einen überforderten Anwaltsanfänger schwer sein kann, ihm zu widerstehen.
„Das ist alles so neu für mich“, sagte er. „Ich hatte einfach keine Ahnung, was ich tun sollte und an wen ich mich wenden sollte.“
Wirtschaftsanalysten und Unternehmer haben dies schon seit langem vorhergesagt durch Automatisierung gestört. Da eine neue Generation von KI-Sprachtools die Branche erobert, scheint dieser Moment gekommen zu sein.
Gestresste Anwälte greifen auf Chatbots zurück, um langwierige Schriftsätze zu verfassen. Anwaltskanzleien verwenden KI-Sprachtools, um Tausende von Falldokumenten zu sichten, und ersetzen so die Arbeit von Mitarbeitern und Rechtsanwaltsgehilfen. KI-Rechtsassistenten helfen Anwälten, Dokumente, Memos und Verträge in wenigen Minuten zu analysieren.
Laut einer Studie könnte der Markt für KI-Rechtssoftware von 1,3 Milliarden US-Dollar im Jahr 2022 auf über 8,7 Milliarden US-Dollar im Jahr 2030 wachsen Branchenanalyse des Marktforschungsunternehmens Global Industry Analysts. A Bericht von Goldman Sachs Schätzungen zufolge könnten im April 44 Prozent der juristischen Arbeitsplätze automatisiert werden, mehr als in jedem anderen Sektor mit Ausnahme der Verwaltungsarbeit.
Diese geldsparenden Tools können jedoch ihren Preis haben. MancheKI-Chatbots neigen dazu, Fakten zu fabrizieren, was zur Entlassung von Anwälten führt. mit einer Geldstrafe belegt oder Fälle wegwerfen lassen. Juristen bemühen sich darum, Richtlinien für den Einsatz der Technologie zu erstellen, um zu verhindern, dass Ungenauigkeiten dazu führen, dass wichtige Fälle verpfuscht werden. Im August hat die American Bar Association eine einjährige Task Force ins Leben gerufen, um die Auswirkungen von KI auf die Anwaltspraxis zu untersuchen.
„Es ist revolutionär“, sagte John Villasenor, Senior Fellow am Zentrum für technologische Innovation der Brookings Institution. „Aber es ist keine Zauberei.“
KI-Tools, die Dokumente schnell lesen und analysieren, ermöglichen es Anwaltskanzleien, günstigere Dienstleistungen anzubieten und die Arbeitsbelastung der Anwälte zu verringern, sagte Villasenor. Aber dieser Segen kann auch ein ethisches Minenfeld sein, wenn er zu auffälligen Fehlern führt.
Im Frühjahr erhielt Lydia Nicholson, eine Wohnungsrechtsanwältin aus Los Angeles, einen rechtlichen Auftrag zum Räumungsfall ihres Mandanten. Aber etwas schien nicht zu stimmen. In dem Dokument wurden Klagen angeführt, bei denen es überhaupt nicht geklappt hat. Nicholson, der die Pronomen they/them verwendet, recherchierte und stellte fest, dass viele davon gefälscht waren.
Sie diskutierten mit Kollegen darüber und „die Leute meinten: ‚Oh, das scheint etwas zu sein, was KI hätte tun können‘“, sagte Nicholson in einem Interview.
Nicholson reichte einen Antrag gegen die Anwaltskanzlei Dennis Block, eine bekannte Räumungskanzlei in Kalifornien, ein und wies auf die Fehler hin. Ein Richter stimmte nach einer unabhängigen Untersuchung zu und verhängte gegen die Gruppe eine Strafe in Höhe von 999 US-Dollar. Die Kanzlei machte einen jungen, neu eingestellten Anwalt in ihrer Kanzlei dafür verantwortlich, „Online-Recherche” den Antrag zu schreiben und sagte, sie sei kurz nach Einreichung der Beschwerde zurückgetreten.Laut der Medienseite LAist analysierten mehrere KI-Experten das Briefing und erklärten, es sei „wahrscheinlich“ von KI generiert worden.
Die Firma Dennis Block antwortete nicht auf eine Bitte um Stellungnahme.
„Es ist nicht verwunderlich, dass KI-Chatbots juristische Zitate erfinden, wenn sie aufgefordert werden, einen Brief zu verfassen“, sagte Suresh Venkatasubramanian, Informatiker und Direktor des Center for Technology Responsibility an der Brown University.
„Das Überraschende ist, dass sie überhaupt etwas annähernd Genaues produzieren“, sagte er. „Dafür sind sie nicht gebaut.“
Vielmehr sind Chatbots wie ChatGPT darauf ausgelegt, Gespräche zu führen, da sie anhand großer Mengen veröffentlichter Texte darauf trainiert wurden, plausibel klingende Antworten auf nahezu jede Aufforderung zu verfassen. Wenn Sie ChatGPT also um eine juristische Kurzfassung bitten, weiß das Unternehmen, dass die juristischen Kurzfassungen Zitate enthalten – aber es hat die relevante Rechtsprechung nicht wirklich gelesen und erfindet daher Namen und Daten, die realistisch erscheinen.
Den Richtern fällt es schwer, mit diesen Fehlern umzugehen. Einige verbieten den Einsatz von KI in ihrem Gerichtssaal. Andere verlangen von Anwälten die Unterzeichnung einer Verpflichtungserklärung, offenzulegen, ob sie bei ihrer Arbeit KI eingesetzt haben. Die Anwaltskammer von Florida erwägt einen Vorschlag, von Anwälten die Erlaubnis eines Mandanten zur Verwendung von KI zu verlangen.
Ein Diskussionspunkt unter Richtern ist, ob Ehrenkodizes, die Anwälte verpflichten, auf die Genauigkeit ihrer Arbeit zu schwören, für generative KI gelten, sagte John G. Browning, ein ehemaliger Richter am Bezirksgericht von Texas.
Browning, Vorsitzender der Taskforce für KI im Bundesstaat Texas, sagte, seine Gruppe erwäge eine Reihe von Ansätzen zur Regulierung des Einsatzes, etwa die Verpflichtung von Anwälten, professionelle Ausbildungskurse in Technologie zu absolvieren, oder die Erwägung spezifischer Regeln dafür, wann durch KI generierte Beweise vorliegen können inbegriffen.
Lucy Thomson, eine Rechtsanwältin und Cybersicherheitsingenieurin aus der Region Washington, die den Vorsitz der KI-Task Force der American Bar Association innehat, sagte, das Ziel bestehe darin, Anwälte sowohl über die Risiken als auch über die potenziellen Vorteile von KI aufzuklären. Die Anwaltskammer habe noch keine formelle Stellungnahme dazu abgegeben, ob KI aus Gerichtssälen verbannt werden sollte, fügte sie hinzu, ihre Mitglieder diskutierten die Frage jedoch aktiv.
„Viele von ihnen denken, dass es nicht notwendig oder angemessen ist, dass Richter den Einsatz von KI verbieten“, sagte Thomson, „weil es nur ein Werkzeug ist, genau wie andere juristische Rechercheinstrumente.“
Mittlerweile wird KI zunehmend für „E-Discovery“ eingesetzt – die Suche nach Beweisen in digitaler Kommunikation, etwa in E-Mails, Chats oder Online-Arbeitsplatztools.
Während frühere Technologiegenerationen Menschen die Suche nach bestimmten Schlüsselwörtern und Synonymen in Dokumenten ermöglichten, haben die heutigen KI-Modelle das Potenzial, komplexere Schlussfolgerungen zu ziehen, sagte Irina Matveeva, Leiterin für Datenwissenschaft und KI bei Reveal, einem in Chicago ansässigen Unternehmen für Rechtstechnologie. Beispielsweise hätten generative KI-Tools es einem Anwalt im Fall Enron ermöglichen können, zu fragen: „Hatte irgendjemand Bedenken hinsichtlich der Bewertung bei Enron?“ und erhalten Sie eine Antwort basierend auf der Analyse der Dokumente durch das Modell.
Wendell Jisa, CEO von Reveal, fügte hinzu, dass er davon überzeugt ist, dass KI-Tools in den kommenden Jahren „eine echte Automatisierung in die Rechtspraxis bringen werden – und die Notwendigkeit der menschlichen Interaktion beseitigen werden, die die alltäglichen Anwälte beim Durchklicken von E-Mails mit sich bringen.“
Jason Rooks, Chief Information Officer eines Schulbezirks in Missouri, sagte, er sei während der Coronavirus-Pandemie mit Anfragen nach elektronischen Aufzeichnungen von Eltern, die einen Sorgerechtsstreit führen, oder von Organisationen, die Schulen wegen ihrer Covid-19-Richtlinien verklagen, überschwemmt worden. Er schätzt, dass er zeitweise fast 40 Stunden pro Woche damit verbrachte, E-Mails zu sichten.
Stattdessen griff er auf ein E-Discovery-Tool namens Logikcull zurück, das angeblich KI verwendet, um Dokumente zu durchsuchen und vorherzusagen, welche für einen bestimmten Fall am wahrscheinlichsten relevant sind. Rooks konnte diese kleinere Teilmenge der Dokumente dann manuell überprüfen, was den Zeitaufwand für jeden Fall um mehr als die Hälfte verkürzte. (Reveal hat Logikcull erworben im August, wodurch ein Legal-Tech-Unternehmen im Wert von mehr als 1 Milliarde US-Dollar gegründet wurde.)
Aber selbst der Einsatz von KI für juristische Routinearbeiten wie E-Discovery birgt Risiken, sagte Venkatasubramanian, der Brown-Professor: „Wenn sie vorgeladen wurden und aufgrund eines ChatGPT-Fehlers einige Dokumente vorlegen und andere nicht – das bin ich nicht.“ Anwalt, aber das könnte ein Problem sein.“
Diese Warnungen werden Leute wie Crabill nicht aufhalten, deren Missgeschicke mit ChatGPT es waren zuerst berichtet vom Colorado-Radiosender KRDO. Nachdem er den mit Fehlern behafteten Antrag eingereicht hatte, wurde der Fall aus nicht damit zusammenhängenden Gründen abgewiesen.
Er sagt, er glaube immer noch, dass KI die Zukunft des Rechts sei. Jetzt hat er sein eigenes Unternehmen und sagt, dass er wahrscheinlich anstelle von ChatGPT KI-Tools verwenden wird, die speziell für Anwälte entwickelt wurden, um ihm beim Schreiben und Recherchieren zu helfen. Er sagte, er wolle nicht zurückgelassen werden.
„Es hat keinen Sinn, ein Neinsager zu sein“, sagte Crabill, „oder gegen etwas zu sein, das unweigerlich der Weg der Zukunft sein wird.“