Der Fall einer Frau, die neun „fabrizierte“ chatgpt-Fälle nutzte, um gegen eine Strafe für die Kapitalertragssteuer Berufung einzulegen, wurde von einem Gericht abgewiesen.
Felicity Harber wurden 3.265 £ in Rechnung gestellt, nachdem sie für eine von ihr verkaufte Immobilie keine Steuern gezahlt hatte. Sie erschien vor Gericht, um gegen die Entscheidung Berufung einzulegen, und führte Fälle an, bei denen das Gericht feststellte, dass sie „Fälschungen“ seien und durch künstliche Intelligenz wie ChatGPT generiert worden seien.
Sie wurde gefragt, ob KI eingesetzt worden sei, und bestätigte, dass dies „möglich“ sei.
Als Frau Harber mit der Realität konfrontiert wird teilte es dem Gericht mit dass sie „keinen Unterschied sehen konnte“, wenn KI eingesetzt worden wäre, da sie zuversichtlich war, dass es Fälle geben würde, in denen psychische Gesundheit oder Unkenntnis des Gesetzes eine vernünftige Entschuldigung für ihre Verteidigung wären.
Anschließend fragte sie das Gericht, wie es sicher sein könne, dass die von der HMRC vorgelegten Fälle echt seien.
Das Gericht teilte Frau Harber mit, dass Fälle zusammen mit ihren Urteilen auf Websites zur Rechtsprechung öffentlich aufgeführt seien, wovon sie, wie sie sagte, nichts gewusst habe.
Frau Harber sagte, die Fälle seien ihr von „einem Freund in einer Anwaltskanzlei“ zur Verfügung gestellt worden.
Ihre Berufung wurde jedoch zurückgewiesen, obwohl der Richter feststellte, dass das Ergebnis auch ohne die erfundenen Fälle erreicht worden wäre.
Richterin Anne Redston fügte außerdem hinzu: „Aber das bedeutet nicht, dass es harmlos ist, erfundene Urteile zu zitieren … Es ist eine ernste und wichtige Angelegenheit, Autoritäten vorzulegen, die nicht authentisch sind, und von einem Gericht zu verlangen, sich auf sie zu stützen.“
Das Gericht räumte ein, dass Frau Harber nicht wusste, dass die Fälle nicht echt waren, und dass sie nicht wusste, wie sie ihre Gültigkeit mit juristischen Recherchetools überprüfen konnte
Dies geschieht, nachdem ein britischer Richter zugegeben hat, beim Verfassen von Urteilen „sehr nützliches“ ChatGPT verwendet zu haben.
Entsprechend der Amtsblatt der AnwaltskammerLord Justice Birss sagte über KI: „Es gibt sie und sie ist äußerst nützlich.“ Ich übernehme die volle persönliche Verantwortung für das, was ich in meinem Urteil darlege – ich versuche nicht, die Verantwortung jemand anderem zu übertragen.
„Alles, was es tat, war eine Aufgabe, die ich erledigen wollte und bei der ich die Antwort kannte und eine Antwort als akzeptabel erkennen konnte.“
Anfang des Jahres wurden zwei amerikanische Anwälte bestraft, weil sie in einem Anspruch auf Flugunfall gefälschte Gerichtszitate verwendet hatten, die durch künstliche Intelligenz generiert wurden.
Es ist bekannt, dass ChatGPT und andere Tools für künstliche Intelligenz ein „Halluzinationsproblem“ haben, bei dem falsche Informationen erstellt und als Tatsachen dargestellt werden, wenn Benutzer Fragen stellen.
Die Solicitors Regulation Authority (SRA) hat die Chancen für Unternehmen durch den Einsatz von KI hervorgehoben, warnte aber auch vor den Risiken und sagte: „Alle Computer können Fehler machen.“ KI-Sprachmodelle wie ChatGPT können hierfür jedoch anfälliger sein.
„Das liegt daran, dass sie so arbeiten, dass sie den Text vorwegnehmen, der den ihnen gegebenen Eingaben folgen sollte, aber kein Konzept von ‚Realität‘ haben. Das Ergebnis ist als „Halluzination“ bekannt, bei der ein System höchst plausible, aber falsche Ergebnisse liefert.“