Von Rory Tingle, Innenkorrespondent für Mailonline 12:04 12. Dezember 2023, aktualisiert 12:06 12. Dezember 2023
Richtern wird es gestattet sein, chatgpt zu nutzen, um beim Verfassen von Gerichtsentscheidungen zu helfen – trotz Warnungen kann KI fiktive Fälle erfinden, die nie stattgefunden haben.
In Leitlinien, die Tausenden von Richtern in England und Wales zur Verfügung gestellt wurden, erklärte das Justizamt, dass das Tool nützlich sein könne große Textmengen zusammenfassen.
Es hieß jedoch, der Chatbot sei eine „schlechte Art der Recherche“, die dazu führe, frühere Fälle oder Rechtstexte zu erfinden.
Der Amtsträger Sir Geoffrey Vos sagte, dass KI „bedeutende Möglichkeiten für die Entwicklung eines besseren, schnelleren und kostengünstigeren digitalen Justizsystems bietet“.
„Die Technologie wird sich nur weiterentwickeln und die Justiz muss verstehen, was vor sich geht“, sagte er. „Richter müssen sich wie alle anderen darüber im Klaren sein, dass KI sowohl ungenaue als auch zutreffende Antworten geben kann.“
Im September bezeichnete ein Richter ChatGPT als „sehr nützlich“, da er zugab, es verwendet zu haben, als er kürzlich ein Urteil des Berufungsgerichts verfasste.
Quotiert in Der TelegraphLord Justice Birss sagte: „Ich denke, das Interessanteste ist, dass man diese großen Sprachmodelle bitten kann, Informationen zusammenzufassen.“ Es ist nützlich und wird verwendet werden, und ich kann Ihnen sagen, ich habe es verwendet.
„Ich habe ChatGPT gefragt, ob Sie mir eine Zusammenfassung dieses Rechtsgebiets geben können, und es wurde mir ein Absatz gegeben.
„Ich weiß, was die Antwort ist, weil ich gerade einen Absatz schreiben wollte, in dem das steht, aber es hat es für mich getan und ich habe es in mein Urteil einbezogen.“ Es ist da und sehr nützlich.
Es wurde angenommen, dass er der erste Angehörige der britischen Justiz war, der offenlegte, dass er das KI-Tool zur Erstellung seines Urteils verwendet hatte.
Anfang dieses Jahres wurden zwei New Yorker Anwälte mit einer Geldstrafe belegt, weil sie von ChatGPT generierte gefälschte Fallzitate verwendet hatten, was eine Debatte über das „Halluzinationsproblem“ des Tools entfachte, bei dem falsche Informationen erfunden werden.
Richter Kevin Castel sagte, die Anwälte Steven Schwartz und Peter LoDuca hätten in böser Absicht gehandelt, indem sie die Eingaben des KI-Bots – von denen einige „Kauderwelsch“ enthielten – verwendet hätten, selbst nachdem Gerichtsbeschlüsse ihre Echtheit in Frage gestellt hatten.
Das Paar vertrat Roberto Mata, der behauptete, sein Knie sei verletzt worden, als er 2019 auf einem Avianca-Flug von El Salvador zum Kennedy International Airport in New York von einem Servierwagen aus Metall angefahren wurde.
Als die kolumbianische Fluggesellschaft einen Richter in Manhattan aufforderte, den Fall wegen Ablauf der Verjährungsfrist abzuweisen, reichte Schwartz einen zehnseitigen Rechtsbrief mit einem halben Dutzend relevanter Gerichtsentscheidungen ein.
Sechs in der Akte angeführte Fälle – darunter Martinez gegen Delta Air Lines, Zicherman gegen Korean Air Lines und Varghese gegen China Southern Airlines – existierten jedoch nicht.
Zur Verhängung der Sanktion sagte Richter Castel vom Südbezirk von New York: „Technologische Fortschritte sind an der Tagesordnung und es ist nichts grundsätzlich Unangemessenes daran, ein zuverlässiges Werkzeug der künstlichen Intelligenz zur Unterstützung einzusetzen.“
„Aber die bestehenden Vorschriften schreiben den Anwälten eine Gatekeeper-Rolle vor, um die Richtigkeit ihrer Unterlagen sicherzustellen.“