Roboter können dabei helfen, Ihr rechtliches Schicksal zu bestimmen, wenn Sie vor einem britischen Gericht landen. Das britische Justizamt hat am Dienstag Richtlinien herausgegeben, die es Richtern erlauben, chatgpt und andere KI-Tools zu verwenden, um Gerichtsurteile zu verfassen und verschiedene andere Aufgaben auszuführen.
„Der Einsatz künstlicher Intelligenz („KI“) in der gesamten Gesellschaft nimmt weiter zu und damit auch ihre Relevanz für das Gerichts- und Tribunalsystem“, sagte das Justizamt, das Richter, Richter und Mitglieder von Gerichtsgremien in England und Wales beaufsichtigt. sagte in a Stellungnahme. „Die Leitlinien sind der erste Schritt in einer geplanten Reihe künftiger Arbeiten zur Unterstützung der Justiz bei ihren Interaktionen mit KI.“
Es handelt sich um einen Wandel, der jeden überraschen dürfte, der den stolpernden Einzug der KI in unsere verschiedenen Rechtssysteme verfolgt hat. Früher in diesem Jahr, Zwei Anwälte in New York wurden mit einer Geldstrafe von 5.000 US-Dollar belegt nachdem sie von ChatGPT verfasste Rechtsdokumente eingereicht hatten, in denen die KI mehrere imaginäre Zitate und Zitate erfand. Im Oktober verurteilt Fugees-Rapper Prakazrel „Pras“ Michél sagte, sein ehemaliger Anwalt habe seinen Prozess mit einem von AI verfassten Schlussplädoyer verpfuscht.
Aber Geschichten über die potenziellen Gefahren der KI haben Anwälte und andere Beamte nicht davon abgehalten, sich kopfüber in die Technologie zu stürzen.
Das gilt insbesondere für Großbritannien, wo die Richter von der Technologie begeistert zu sein scheinen. Im September nutzte Lord Justice Birss vom Berufungsgericht von England und Wales ChatGPT, um ihm unbekannte Rechtstheorien zusammenzufassen, kopierte die Ergebnisse und fügte sie in ein offizielles Urteil ein. Birss nannte die KI eine „sehr nützlich“ Werkzeug.
Der Orientierungshilfe macht britischen Richtern den Weg frei, mit der Technologie zu experimentieren, obwohl das Justizamt einige Einschränkungen für die KI vorgeschlagen hat und deren potenzielle Fallstricke anerkannt hat.
Die Justiz stellte fest, dass KI-Antworten „ungenau, unvollständig, irreführend oder voreingenommen sein können“ und schlug vor, dass ChatGPT und andere große Sprachmodelle „eine schlechte Möglichkeit zur Recherche sind, um neue Informationen zu finden, die Sie nicht überprüfen können“. In den Leitlinien wurde außerdem empfohlen, dass Richter die Genauigkeit von KI-Antworten überprüfen, bevor sie, wie Sie wissen, Entscheidungen treffen, die den Verlauf des Lebens von Menschen verändern. Eine wirklich gute Idee.
Der Leitfaden warnt auch vor Datenschutzbedenken und weist darauf hin, dass KI-Unternehmen die Ergebnisse von Benutzerinteraktionen sammeln. Das Justizamt sagte, Richter sollten davon ausgehen, dass das Eingeben von etwas in eine Chatbot-Schnittstelle dasselbe ist wie das Veröffentlichen, damit die ganze Welt es sehen kann.
Insgesamt enthalten die sechs Leitlinienseiten so grundlegende Details über die Technologie, dass klar ist, dass die Justiz davon ausgeht, dass einige Richter keinerlei Verständnis für künstliche Intelligenz haben. Angesichts des astronomischen Einsatzes muss man sich fragen, ob es eine gute Idee ist, Richter mit KI, die weniger als 2.000 Wörter an sanften Empfehlungen an der Spitze ihrer neuen Roboterhammer haben, austoben zu lassen.