Der Fall einer Frau, die neun „fabrizierte“ chatgpt-Fälle nutzte, um gegen eine Strafe für die Kapitalertragssteuer Berufung einzulegen, wurde von einem Gericht abgewiesen.

Felicity Harber wurden 3.265 £ in Rechnung gestellt, nachdem sie für eine von ihr verkaufte Immobilie keine Steuern gezahlt hatte. Sie erschien vor Gericht, um gegen die Entscheidung Berufung einzulegen, und führte Fälle an, bei denen das Gericht feststellte, dass sie „Fälschungen“ seien und durch künstliche Intelligenz wie ChatGPT generiert worden seien.

Sie wurde gefragt, ob KI eingesetzt worden sei, und bestätigte, dass dies „möglich“ sei.

Als Frau Harber mit der Realität konfrontiert wird teilte es dem Gericht mit dass sie „keinen Unterschied sehen konnte“, wenn KI eingesetzt worden wäre, da sie zuversichtlich war, dass es Fälle geben würde, in denen psychische Gesundheit oder Unkenntnis des Gesetzes eine vernünftige Entschuldigung für ihre Verteidigung wären.

Anschließend fragte sie das Gericht, wie es sicher sein könne, dass die von der HMRC vorgelegten Fälle echt seien.

Das Gericht teilte Frau Harber mit, dass Fälle zusammen mit ihren Urteilen auf Websites zur Rechtsprechung öffentlich aufgeführt seien, wovon sie, wie sie sagte, nichts gewusst habe.

Richterin Anne Redston sagte, der Einsatz künstlicher Intelligenz vor Gericht sei ein „ernsthaftes und wichtiges Thema“

(PA)

Frau Harber sagte, die Fälle seien ihr von „einem Freund in einer Anwaltskanzlei“ zur Verfügung gestellt worden.

Siehe auch  Die einfachsten ChatGPT-Chatbots, die jeder heute erstellen kann | von Julia Zhipa | Dez. 2023

Ihre Berufung wurde jedoch zurückgewiesen, obwohl der Richter feststellte, dass das Ergebnis auch ohne die erfundenen Fälle erreicht worden wäre.

Richterin Anne Redston fügte außerdem hinzu: „Aber das bedeutet nicht, dass es harmlos ist, erfundene Urteile zu zitieren … Es ist eine ernste und wichtige Angelegenheit, Autoritäten vorzulegen, die nicht authentisch sind, und von einem Gericht zu verlangen, sich auf sie zu stützen.“

Das Gericht räumte ein, dass Frau Harber nicht wusste, dass die Fälle nicht echt waren, und dass sie nicht wusste, wie sie ihre Gültigkeit mit juristischen Recherchetools überprüfen konnte

Dies geschieht, nachdem ein britischer Richter zugegeben hat, beim Verfassen von Urteilen „sehr nützliches“ ChatGPT verwendet zu haben.

Entsprechend der Amtsblatt der AnwaltskammerLord Justice Birss sagte über KI: „Es gibt sie und sie ist äußerst nützlich.“ Ich übernehme die volle persönliche Verantwortung für das, was ich in meinem Urteil darlege – ich versuche nicht, die Verantwortung jemand anderem zu übertragen.

„Alles, was es tat, war eine Aufgabe, die ich erledigen wollte und bei der ich die Antwort kannte und eine Antwort als akzeptabel erkennen konnte.“

Anfang des Jahres wurden zwei amerikanische Anwälte bestraft, weil sie in einem Anspruch auf Flugunfall gefälschte Gerichtszitate verwendet hatten, die durch künstliche Intelligenz generiert wurden.

Es ist bekannt, dass ChatGPT und andere Tools für künstliche Intelligenz ein „Halluzinationsproblem“ haben, bei dem falsche Informationen erstellt und als Tatsachen dargestellt werden, wenn Benutzer Fragen stellen.

Die Solicitors Regulation Authority (SRA) hat die Chancen für Unternehmen durch den Einsatz von KI hervorgehoben, warnte aber auch vor den Risiken und sagte: „Alle Computer können Fehler machen.“ KI-Sprachmodelle wie ChatGPT können hierfür jedoch anfälliger sein.

Siehe auch  Umfrage: ChatGPT/GenAI beeinflusst die Finanzierungsstrategien der Anleger

„Das liegt daran, dass sie so arbeiten, dass sie den Text vorwegnehmen, der den ihnen gegebenen Eingaben folgen sollte, aber kein Konzept von ‚Realität‘ haben. Das Ergebnis ist als „Halluzination“ bekannt, bei der ein System höchst plausible, aber falsche Ergebnisse liefert.“

5/5 - (221 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein