Ein Richter des Berufungsgerichts hat chatgpt als „äußerst nützlich“ bezeichnet, nachdem er den Chatbot mit künstlicher Intelligenz verwendet hatte, um einen Teil eines Urteils zu verfassen.

Lord Justice Birss, der sich auf das Recht des geistigen Eigentums spezialisiert hat, sagte, er habe das Textgenerierungstool verwendet, um einen ihm vertrauten Rechtsbereich zusammenzufassen, bevor er die Wörter kopiert und in ein Gerichtsurteil eingefügt habe.

Lord Justice Birss sagte auf einer Konferenz der Law Society, dass ChatGPT und ähnliche KI-Programme „großes Potenzial“ hätten.

Er fügte hinzu: „Ich denke, das Interessanteste ist, dass man diese großen Sprachmodelle bitten kann, Informationen zusammenzufassen.“ Es ist nützlich und wird verwendet werden, und ich kann Ihnen sagen, ich habe es verwendet.

„Ich habe ChatGPT gefragt, ob Sie mir eine Zusammenfassung dieses Rechtsgebiets geben können, und es wurde mir ein Absatz gegeben. Ich weiß, was die Antwort ist, weil ich gerade einen Absatz schreiben wollte, in dem das steht, aber es hat es für mich getan und ich habe es in mein Urteil einbezogen. Es ist da und sehr nützlich.

„Ich übernehme die volle persönliche Verantwortung für das, was ich in meinem Urteil darlege. Ich versuche nicht, die Verantwortung jemand anderem zu übertragen. Alles, was es bewirkte, war eine Aufgabe, die ich erledigen wollte und auf die ich die Antwort kannte und die ich als akzeptabel erkennen konnte.“

Die Äußerungen des Richters, über die ursprünglich die Law Society Gazette berichtete, sind der erste bekannte Fall, bei dem ein Mitglied der britischen Justiz einen KI-Chatbot verwendet hat, um einen Teil eines Urteils zu verfassen.

Siehe auch  Die Plug-In-Funktion des ChatGPT-Plugins ermöglicht das Unterrichten und die vollständige Klassifizierung und Zusammenfassung des aktuellen Plug-Ins – Computer King Ada

Das Justizamt lehnte eine Stellungnahme ab und wollte auch nicht sagen, ob es formelle Leitlinien für Richter zur Verwendung von ChatGPT herausgegeben hat.

Anfang dieses Jahres nutzte ein kolumbianischer Richter ChatGPT, um bei der Entscheidung eines Falles zu helfen, und fragte den Chatbot, ob die Krankenversicherung eines behinderten Kindes die Kosten für entsprechende Therapien übernehmen sollte.

Während der Chatbot „Ja“ sagte, löste das Urteil eine globale Debatte über den rechtmäßigen Platz der KI in den Rechtssystemen der Welt aus.

Im Juni sagte ein New Yorker Anwalt, er sei „gedemütigt“ worden, nachdem er zugeben musste, dass er ChatGPT für juristische Recherchen genutzt habe.

Als Beispiel für das, was Experten als „Halluzinationsproblem“ bezeichnen, stellte ChatGPT sechs fiktive Gerichtsfälle zusammen, die es zur Untermauerung der rechtlichen Argumentation von Steven Schwartz anführte.

Richter Kevin Castel verhängte später gegen Herrn Schwartz und seine Firma Levidow, Levidow und Oberman eine Geldstrafe von 5.000 US-Dollar (4.029 £), nachdem er ihre Eingaben als „Unsinn“ bezeichnet hatte. Der Richter kritisierte die Kanzlei dafür, dass sie „ihre Verantwortung aufgegeben“ habe und „weiterhin zu den falschen Meinungen stehe, nachdem Gerichtsbeschlüsse ihre Existenz in Frage gestellt hätten“.

Das Halluzinationsproblem beschreibt die Tendenz von KI-Chatbots, als Reaktion auf menschliche Anfragen falsche, aber überzeugend klingende Informationen zu generieren.

Eine Reihe von Anwaltskanzleien in der Stadt haben in den letzten Monaten die Technologie von ChatGPT gemieden.

Mishcon de Reya verbot im März die Verwendung von ChatGPT. Ein Seniorpartner sagte, das Unternehmen habe „eine klare Richtlinie, dass Kunden- und vertrauliche Unternehmensinformationen nicht auf ChatGPT oder andere Modelle hochgeladen werden dürfen.“

Siehe auch  Timofey hat erneut günstig ein defektes und/oder raubkopiertes ChatGPT gekauft

Im Gegensatz dazu hat das Magic Circle-Unternehmen Allen & Overy einen eigenen KI-Chatbot namens Harvey entwickelt.

Das mit Unterstützung des ChatGPT-Herstellers OpenAI entwickelte Tool soll Aufgaben wie die Vertragsgestaltung automatisieren, obwohl die Kanzlei angibt, dass die Ergebnisse von einem menschlichen Anwalt überprüft werden.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein