Richter Birss bat chatgpt, den Text für ihn zu verfassen, den er dann kopierte und in das Dokument einfügte.

Ein Richter am britischen Berufungsgericht hat zugegeben, die generative künstliche Intelligenz von ChatGPT genutzt zu haben, um ein Urteil zu verfassen. Darüber Berichte Der Telegraph.

Bei einer Veranstaltung der Law Society sagte Lord Justice Birss, er habe sich an ChatGPT gewandt, um einen Absatz für Gerichtsdokumente in einem Fall zu erstellen, in dem es um das Recht des geistigen Eigentums geht. Birss sagte, er habe die Wörter direkt kopiert und in die von ihm geschriebene Lösung eingefügt, und fügte hinzu, dass Tools wie ChatGPT großes Potenzial hätten.

„Ich denke, das Interessanteste ist, dass man diese großen Sprachmodelle bitten kann, Informationen zusammenzufassen. Das ist nützlich und wird verwendet. Und ich kann Ihnen sagen, dass ich es verwendet habe“, sagte der Richter.

Er fügte außerdem hinzu, dass er die volle persönliche Verantwortung für sein Handeln übernehme und diese nicht auf die KI abwälzen werde. Nach Angaben des Richters kannte er die von ChatGPT angeforderten Informationen, las den von ihm verfassten Absatz und fand ihn zuverlässig, was seine Arbeit lediglich beschleunigte.

Die Medien schreiben, dass das Geständnis von Birss als der erste bekannte Fall gilt, in dem ein britischer Richter zugab, in seiner Arbeit generative künstliche Intelligenz eingesetzt zu haben. Dies ist an sich umstritten, da ChatGPT viele Fehler macht. In den USA wurden zwei Anwälte heftig kritisiert, weil sie einen Chatbot zur Verteidigung eines Mandanten vor Gericht eingesetzt hatten, nachdem Richter erkannt hatten, dass das Programm falsche Informationen generierte.

Siehe auch  ChatGPT: Ein ergänzendes Tool für Effizienz und verbesserte Kommunikation in der ländlichen Dermatologie

Erinnern wir uns daran, dass Wissenschaftler ChatGPT im Juni 2023 gebeten haben, einen Prozessor zu entwickeln, und der Chatbot diese Aufgabe problemlos erledigt hat. Und obwohl die KI nur den wichtigen Grundbestandteil des neuen Chips detailliert beschreiben konnte, sehen Wissenschaftler darin großes Potenzial.

Und im März wurde bekannt, dass ChatGPT-4 eine Person getäuscht hat, indem es vorgab, „blind“ zu sein. Der Benutzer wurde „aufgefordert“, eine Captcha-Überprüfung durchzuführen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein