Ein Richter eines Berufungsgerichts hat zugegeben, den Chatbot chatgpt mit künstlicher Intelligenz verwendet zu haben, um ihm beim Verfassen eines Gerichtsurteils zu helfen.

Lord Justice Birss sagte, das Sprachverarbeitungstool sei „sehr nützlich“ und die Technologie habe „echtes Potenzial“.

Wissenschaftler, Autoren und andere Fachleute haben die Genauigkeit von ChatGPT seit seiner Einführung im letzten Jahr bereits als unzuverlässig empfunden, und es ist bekannt geworden, dass es ein „Halluzinationsproblem“ hat, bei dem falsche Informationen generiert werden.

Die Royal Courts of Justice – das Berufungsgericht

(Getty Images)

Anfang dieses Jahres beschuldigte ChatGPT fälschlicherweise einen amerikanischen Rechtsprofessor, indem es ihn in eine erstellte Liste von Rechtswissenschaftlern aufnahm, die jemanden sexuell belästigt hatten, und dabei eine nicht existierende Person anführte Die Washington Post Bericht.

PCGuide.com sagt: „ChatGPT ist keine wirklich zuverlässige Quelle. Es lässt sich nicht leugnen, dass es eines der besten Tools zur Generierung von Inhalten mit künstlicher Intelligenz ist, aber die Genauigkeit ist bei vielen Themen immer noch nicht so gut, wie man es sich wünschen würde.“

Laut Law Society Gazette sprach Lord Justice Birss auf einer Konferenz über KI, ChatGPT und generative große Sprachmodelle und sagte: „Ich denke, das Interessanteste ist, dass man diese großen Sprachmodelle bitten kann, Informationen zusammenzufassen.“

„Es ist nützlich und wird genutzt werden, und ich kann Ihnen sagen, ich habe es genutzt.

Siehe auch  Wir haben ChatGPT gefragt, was der Ethereum-Preis im Jahr 2025 sein wird; Hier ist, was es sagte

„Ich dachte, ich würde es versuchen. Ich habe ChatGPT gefragt, ob Sie mir eine Zusammenfassung dieses Rechtsgebiets geben können, und es wurde mir ein Absatz gegeben. Ich weiß, was die Antwort ist, weil ich gerade einen Absatz schreiben wollte, in dem das steht, aber es hat es für mich getan und ich habe es in mein Urteil einbezogen.

„Es ist da und sehr nützlich. Ich übernehme die volle persönliche Verantwortung für das, was ich in meinem Urteil darlege – ich versuche nicht, die Verantwortung jemand anderem zu übertragen.

„Alles, was es tat, war eine Aufgabe, die ich erledigen wollte und bei der ich die Antwort kannte und eine Antwort als akzeptabel erkennen konnte.“

Greifen Sie mit Amazon Prime Video auf unbegrenztes Streaming von Filmen und Fernsehsendungen zu

Melden Sie sich jetzt für eine 30-tägige kostenlose Testversion an

Melden Sie sich an

Amazon Prime-Logo

Greifen Sie mit Amazon Prime Video auf unbegrenztes Streaming von Filmen und Fernsehsendungen zu

Melden Sie sich jetzt für eine 30-tägige kostenlose Testversion an

Melden Sie sich an

Vor drei Monaten entschuldigte sich ein New Yorker Anwalt, der ChatGPT nutzte, um einen juristischen Schriftsatz zu verfassen und am Ende gefälschte Fälle anführte, vor Gericht überschwänglich.

Steven Schwartz wurde emotional, als er erklärte, er sei vom Chatbot mit künstlicher Intelligenz „getäuscht“ worden.

„Ich bereue zutiefst meine Handlungen auf diese Weise, die heute zu dieser Anhörung geführt haben“, sagte Herr Schwartz. „Ich habe sowohl beruflich als auch persönlich gelitten [because of] die große Aufmerksamkeit, die dieses Thema hervorgerufen hat. Ich bin sowohl verlegen, gedemütigt als auch äußerst reuig.“

Siehe auch  Wo Boston Children's eine Chance für ChatGPT sieht

Zusammen mit einem Kollegen wurden er und ihre Anwaltskanzlei mit einer Geldstrafe von 5.000 US-Dollar (3.935 £) belegt.

Die britische Anwaltskanzlei Mishcon de Reya hat Anwälten die Nutzung von ChatGPT verboten, weil sie befürchten, dass dadurch Daten kompromittiert werden könnten.

Im Juli kamen zwei neue US-Studien der Universitäten Stanford und UC Berkeley zu dem Schluss, dass ChatGPT mit der Zeit offenbar an Genauigkeit verliert.

5/5 - (179 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein