Ein Anwalt nutzte chatgpt für seine Recherche, doch die Software für künstliche Intelligenz verwies auf Fälle, die es nie gab.
Obwohl ChatGPT die Anwaltsprüfung tatsächlich bestanden hat, ist es noch nicht bereit, einen Kunden zu übernehmen. Ein Anwalt hat dafür bezahlt. Für seine Forschung nutzte Steven Schwartz das Modell der künstlichen Intelligenz. Doch die Lösung von OpenAI beziehe sich auf Klagen, die es nie gegeben habe, betont die Seite Der Rand.
Die fragliche Klage richtet sich gegen einen gewissen Roberto Mata bei der kolumbianischen Fluggesellschaft Avianca, präzisiert der New York Times. Auf einem Flug nach New York traf ihn ein metallener Trolley am Knie. Er wandte sich daher gegen das Unternehmen und verlangte Schadensersatz.
Ich bin mir nicht bewusst, dass ChatGPT lügen kann
Um jedoch eine Abweisung der Klage zu verhindern, musste der Anwalt des Mannes ähnliche Fälle finden, in denen die Kläger gewonnen hatten. Anschließend brachte er sechs Fälle vor. Wenn die künstliche Intelligenz sicherstellte, dass die zitierten Fälle der Wahrheit entsprachen, könnten weder der Richter noch der gegnerische Anwalt die Gerichtsentscheidungen finden.
In einer eidesstattlichen Erklärung gab Steven Schwartz zu, ChatGPT für seine Recherchen genutzt zu haben. Doch um die Aussagen der Software zu überprüfen, fragte er ihn einfach, ob er nicht lüge. Zur Verteidigung sagte der Anwalt, er habe ChatGPT noch nie zuvor genutzt und sei sich daher „nicht bewusst, dass der Inhalt falsch sein könnte“.
Der Fall wurde inzwischen in den Südbezirk von New York verlegt, wo Anwalt Steven Schwartz nicht als Anwalt zugelassen ist. Sein Kollege Peter LoDuca übernahm daher die Akte. Es liegt daher an ihm, die Verwendung von ChatGPT zur Hervorrufung fabrizierter Versuche zu erklären.