Aus einer vom Anwalt des Klägers eingereichten Antwortschrift Wojcik gegen Metlife (ND Abb.):

MetLife behauptet, dass „Dr. Khans Meinung.“ [Autopsy Report] und die Sterbeurkunde liefern eine rationale Untermauerung für die Entschlossenheit von MetLife, Wojciks Anspruch auf Zahlung einer AD&D-Leistung abzulehnen Sie fahren nur wenige Häuserblocks von ihrem Zuhause entfernt. Es ist nicht rational, zu dem Schluss zu kommen, dass eine Person sich absichtlich selbst angezündet hat, ohne dass eine Zündquelle vorhanden war. Es ist nicht rational, zu dem Schluss zu kommen, dass eine Person sich selbst angezündet hat, indem sie ein E-Zigaretten-Gerät als Zündquelle verwendet hat.

Eine vernünftige Person würde zu dem Schluss kommen, dass die Verwendung eines E-Zigarettengeräts zum Anzünden oder Entfachen eines Feuers nicht sinnvoll ist, weil ein E-Zigarettengerät keine Flamme hat.

Ein Vape-Gerät, auch elektronische Zigarette oder E-Zigarette genannt, ist ein Gerät, das den Vorgang des Rauchens simuliert, indem es eine flüssige Lösung, oft E-Liquid oder Vape-Saft genannt, verdampft. Vape-Geräte sind batteriebetrieben und bestehen aus einem Heizelement, einem Reservoir oder Tank zur Aufnahme des E-Liquids und einem Mundstück, durch das der Dampf inhaliert wird. Wenn das Gerät aktiviert wird, erhitzt das Heizelement die E-Flüssigkeit und wandelt sie in Dampf um, der vom Benutzer eingeatmet werden kann.

Eingabeaufforderung „Vape-Gerät“. chatgpt, Version vom 12. Mai, OpenAI, chat.openai.com

Das Heizelement erzeugt keine Flamme. Es ist bekannt, dass E-Zigaretten Brände auslösen, dies geschieht jedoch nur dann, wenn das E-Zigarettengerät selbst eine Fehlfunktion aufweist. Beispielsweise kann es zu einem Kurzschluss in der Batterie kommen, der zu einer Überhitzung und einem Brand führt.

Aufforderung „Kann das E-Zigaretten-Gerät ein Feuer entfachen?“ ChatGPT, Version vom 12. Mai, OpenAI, chat.openai.com

Richterin Sharon Johnson Coleman Reaktion (21. März):

Dieses Gericht verfügt über eine ständige Anordnung, dass Anwälte bei der Führung ihres Falles keine künstliche Intelligenz („KI“) einsetzen dürfen. Der Anwalt des Klägers zitierte ausdrücklich die Aufforderung, die er in ChatGPT für AI eingefügt hatte, um seine Recherchen für ihn durchzuführen. Das Gericht ist nicht nur entsetzt über die Weigerung des Anwalts des Klägers, einfache Nachforschungen anzustellen, sondern ein solches Vertrauen auf KI ist auch ein schlechter Dienst für Mandanten, die sich auf die Kompetenz und die rechtlichen Fähigkeiten ihres Anwalts verlassen. Da es nicht die Schuld der Klägerin ist, dass ihr Anwalt gegen die Anordnung dieses Gerichts verstoßen hat, wird nicht davon ausgegangen, dass ChatGPT ihr gesamtes Briefing verfasst hat.

Die Bestellung war überarbeitet Donnerstag (28. März), Fußnote 2 wegzulassen, ohne Angabe des Grundes für die Überarbeitung. Dennoch scheint der Richter mit der Verwendung von ChatGPT nicht zufrieden gewesen zu sein, und das zu Recht. Die ChatGPT-Ausgabe ist einfach zu fehleranfällig, um zuverlässig zu sein. Es gibt zweifellos einige vertrauenswürdige Quellen, die diskutieren, wie E-Zigaretten funktionieren und wie wahrscheinlich es ist, dass sie Brände auslösen; ChatGPT ist keiner.

Siehe auch  Erzählen Sie mir nicht diesen ChatGPT-4-Unsinn, sagt der Richter

Dies steht nun völlig im Einklang mit ChatGPT nützlich. Eine ChatGPT-Sitzung könnte beispielsweise einige rechtliche oder sachliche Behauptungen vorschlagen, für die der Benutzer dann nützliche Quellen aufspüren könnte. In gewisser Weise ist dies wie ein Gespräch mit einem Fremden auf einer Party (oder online): Solche Gespräche können zu etwas Neuem oder Inspiration führen. Aber Sie würden „Gespräch mit unbekanntem Mann auf Party“ nicht als Quelle in einer Gerichtsakte angeben (oder auch nicht „Beitrag eines unbekannten Reddit-Benutzers“), weil das Gespräch selbst keine verlässliche Autorität ist; Bevor Sie etwas zitieren, was Sie aus dem Gespräch gelernt haben, müssen Sie es durch eine zuverlässige Quelle überprüfen und dann die Quelle zitieren. Ebenso wie bei ChatGPT.

Und ich denke, andere Richter, auch solche, die das KI-Verbot nicht in ihrem Repertoire haben Daueraufträgewerden wahrscheinlich die gleiche Ansicht vertreten.

UPDATE 11:22 Uhr: Ich habe diesen Beitrag ursprünglich mit „Zitieren Sie ChatGPT nicht als Rechtsautorität“ betitelt, habe ihn dann aber geändert, um deutlich zu machen, dass dies jede Verwendung von ChatGPT als Autorität in rechtlichen Einreichungen einschließt und nicht nur die Verwendung für Rechtsanträge. (In diesem Fall handelt es sich natürlich um die Verwendung als Autorität für eine Tatsachenbehauptung.)

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein