Brasiliens Nationaler Justizrat warnt davor, dass immer mehr Richter auf KI setzen, obwohl es in Brasilien keine gesetzlichen Regelungen dazu gibt – Foto: AFPchatgpt formuliert hatte. – AFP-Bild, 14. November 2023.” rel=”lightbox” photoid=”648783204870406144″ src=”https://cdn.tuoitre.vn/471584752817336320/2023/11/14/chatgpt-16999459694001400858669.jpg” type=”photo” style=”max-width:100%;” width=”1000″ height=”666″ fetchpriority=”high”/>

Brasiliens Nationaler Justizrat warnt davor, dass immer mehr Richter auf KI setzen, obwohl es in Brasilien keine gesetzlichen Regelungen dazu gibt – Foto: AFP

Am 13. November gaben die brasilianischen Behörden bekannt, dass sie eine Untersuchung gegen einen Bundesrichter einleiten würden, der beschuldigt wird, falsche Informationen des Chatbots ChatGPT mit künstlicher Intelligenz (KI) für die Ausarbeitung eines Urteils verwendet zu haben.

Dies ist das erste Mal, dass sich ein solcher Vorfall in diesem südamerikanischen Land ereignete.

Konkret hat der Brasilianische Nationale Justizrat (CNJ), die Gerichtsaufsichtsbehörde in Brasilien, Herrn Jefferson Rodrigues, Richter im Bundesstaat Acre, vorgeladen, um den Grund für die Verkündung eines Urteils mit vielen Fehlern aufgrund von ChatGPT zu erläutern.

Die Medien sagten, dass Herr Rodrigues in einem Prozess viele von ChatGPT erstellte ungenaue Informationen im Zusammenhang mit den Entscheidungen des Obergerichts in früheren Prozessen und angewandten Präzedenzfällen verwendet habe, um ein ähnliches Urteil zu fällen.

In den der Aufsichtsbehörde vorgelegten Dokumenten sagte Herr Rodrigues, das Urteil sei von einem „vertrauenswürdigen Berater“ mit Hilfe von KI ausgearbeitet worden.

Er erklärte, dass er bei der Ausarbeitung des Urteils KI eingesetzt habe, weil der „Arbeitsaufwand zu groß“ sei. Es wird erwartet, dass Herr Rodrigues 15 Tage Zeit hat, seine Erklärung fortzusetzen.

CNJ warnt davor, dass immer mehr Richter auf KI setzen, während es in Brasilien keine gesetzlichen Regelungen dazu gibt.

5/5 - (248 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein