Ein Anwalt, der einen Mann vertritt, der eine Fluggesellschaft verklagt, nutzte künstliche Intelligenz, um das Gerichtsverfahren vorzubereiten, und es ging schief.
• Lesen Sie auch: Der Erfinder von chatgpt plädiert für ein „faires Gleichgewicht“ zwischen Regulierung und Innovation
• Lesen Sie auch: Wen wird künstliche Intelligenz am Arbeitsplatz ersetzen?
Roberto Mata verklagte die Fluggesellschaft Avianca mit der Begründung, er sei während eines Fluges nach New York durch ein Metallstück aus dem Imbisswagen am Knie verletzt worden New York Times.
Als Avianca einen Bundesrichter in Manhattan aufforderte, den Fall abzuweisen, lehnten die Anwälte von Herrn Mata dies entschieden ab und legten einen zehnseitigen Bericht vor, in dem sie mehr als ein halbes Dutzend Gerichtsentscheidungen zitierten.
Das Problem: Weder die Anwälte der Fluggesellschaft noch der Richter selbst konnten diese Entscheidungen oder die im Bericht erwähnten Zitate finden. Der Grund: ChatGPT hatte sich alles ausgedacht.
Der für diesen Bericht verantwortliche Anwalt, Steven A. Schwartz, gestand, für seine Recherchen KI eingesetzt zu haben, „eine Quelle, die sich als unzuverlässig herausstellte“.
Herr Schwartz behauptete, er habe nicht die Absicht gehabt, das Gericht in die Irre zu führen, aber er habe ChatGPT nie genutzt und sei sich „der Möglichkeit nicht bewusst gewesen, dass der Inhalt falsch sei“.
Er bat das Programm sogar, zu überprüfen, ob die genannten Fälle real seien, und ChatGPT antwortete Berichten zufolge mit „Ja“.