Gettyimages 1437811901 E1700263620247

chatgpt kann in Sekundenschnelle Fake-Fälle generieren, und Richter sind davon nicht begeistert. getty

Künstliche Intelligenz wird viele Berufe verändern, darunter auch die Rechtswissenschaften. Aber es fordert auch Opfer, die zu sehr auf seine Fähigkeiten vertrauen.

Unter ihnen ist Zachariah Crabill, ein überforderter Anwaltsanfänger in einer Anwaltskanzlei in Colorado Springs, als er im Mai der Versuchung nachgab, ChatGPT zu nutzen.

Der KI-Chatbot half ihm, in Sekundenschnelle einen Antrag zu schreiben, was ihm stundenlange Arbeit ersparte, so der lokale Radiosender KRDO gemeldet im Juni. Doch nachdem er das Dokument bei einem Gericht in Colorado eingereicht hatte, wurde ihm klar, dass etwas nicht stimmte: Mehrere von ChatGPT generierte Klagezitate waren erfunden.

Es ist bekannt, dass ChatGPT von OpenAI mit Sicherheit falsch liegt, und in diesem Fall wurden einfach Fälle aus dem Nichts erstellt, die überzeugend klangen. Crabill überprüfte nicht, ob die Fälle echt waren, bevor er seine Arbeit einreichte.

Crabill gab seinen Fehler gegenüber dem Richter zu, der ihn dem landesweiten Büro anzeigte, und im Juli wurde der junge Anwalt von seinem Job bei der Baker Law Group entlassen.

In seiner Erklärung vor Gericht gab Crabill seinen Fehler zu schrieb„Ich hatte das Gefühl, dass es mir an Erfahrung in der juristischen Recherche und beim Schreiben mangelte, und dass meine Effizienz in dieser Hinsicht zum Nutzen meiner Mandanten dadurch exponentiell gesteigert werden konnte, dass der zeitintensive Rechercheteil des Verfassens beschleunigt wurde.“

Crabill ist nicht der einzige Anwalt, der ChatGPT zu sehr vertraut. Im Juni wurden zwei Anwälte von einem Bundesrichter in New York beschimpft und mit einer Geldstrafe von 5.000 US-Dollar belegt, weil sie einen juristischen Schriftsatz eingereicht hatten, in dem auch nicht existierende Fälle angeführt wurden.

Siehe auch  OpenAI kündigt Plattform zur Erstellung benutzerdefinierter ChatGPTs an

In Sanktionen gegen Steven A. Schwartz und Peter LoDuca von Levidow, Levidow & Oberman schrieb der Richter: „Technologische Fortschritte sind an der Tagesordnung, und es ist nichts grundsätzlich Unangemessenes daran, ein zuverlässiges Werkzeug der künstlichen Intelligenz zur Unterstützung zu verwenden.“ Die bestehenden Vorschriften schreiben den Anwälten jedoch eine Gatekeeper-Rolle vor, um die Richtigkeit ihrer Unterlagen sicherzustellen.“

„Ich habe nicht verstanden, dass ChatGPT Fälle fabrizieren kann“, hatte Schwartz zuvor dem Richter gesagt.

Aber Crabill seinerseits gibt die KI-Tools trotz der traumatischen Erfahrung nicht auf.

„Ich nutze ChatGPT immer noch im Alltag, so wie die meisten Leute google bei der Arbeit nutzen“, sagt er erzählt Geschäftseingeweihter. Tatsächlich hat er inzwischen ein Unternehmen gegründet, das juristische Dienstleistungen über KI anbietet.

In einem Washington Post Stück In der am Donnerstag veröffentlichten Studie sagte Crabill, dass er wahrscheinlich speziell für Anwälte entwickelte KI-Tools verwenden werde, um ihm beim Schreiben und Recherchieren zu helfen.

Er fügte hinzu: „Es hat keinen Sinn, ein Neinsager zu sein oder gegen etwas zu sein, das unweigerlich der Weg der Zukunft sein wird.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein