Es sieht so aus, als müsste sich OpenAI endlich vor Gericht für die „Halluzinationen“ von ChatGPT verantworten, nachdem ein Richter in Georgia kürzlich gegen den Antrag des Technologieunternehmens entschieden hat, die Verleumdungsklage eines Radiomoderators abzuweisen.
OpenAI hatte argumentiert, dass die Ausgabe von ChatGPT nicht als Verleumdung angesehen werden könne, auch weil die Ausgabe des Chatbots nicht als „Veröffentlichung“ angesehen werden könne, was ein Schlüsselelement einer Verleumdungsklage sei. In seinem Antrag auf Abweisung argumentierte OpenAI außerdem, dass Walters nicht nachweisen könne, dass das Unternehmen tatsächlich vorsätzlich gehandelt habe oder dass jemand glaubte, die angeblich verleumderischen Aussagen seien wahr oder dass er durch die angebliche Veröffentlichung geschädigt worden sei.
Es ist noch zu früh, um zu sagen, ob Richterin Tracie Cason die Argumente von OpenAI überzeugend fand. In ihrer Anordnung lehnte sie den Antrag von OpenAI auf Abweisung ab, den MediaPost mitteilte HierCason machte keine Angaben dazu, wie sie zu ihrer Entscheidung gekommen sei, sondern sagte nur, dass sie die Argumente und die geltenden Gesetze „sorgfältig“ geprüft habe.
Möglicherweise gibt es einige Hinweise darauf, wie Cason zu ihrer Entscheidung gelangt ist Gerichtsakten von John Monroe, Anwalt des Radiomoderators Mark Walters aus Georgia, als er letztes Jahr den Antrag auf Abweisung ablehnte.
Monroe hatte argumentiert, dass OpenAI zu Unrecht versucht habe, die Klage abzuweisen, indem es Tatsachen geltend gemacht habe, die vor Gericht noch bewiesen werden müssten. Wenn OpenAI beabsichtigte, dass das Gericht über diese Argumente entscheidet, schlug Monroe vor, dass ein Antrag auf ein summarisches Urteil in dieser Phase des Verfahrens der richtige Schritt gewesen wäre und kein Antrag auf Abweisung.
Wäre OpenAI jedoch diesen Weg gegangen, hätte Walters die Möglichkeit gehabt, zusätzliche Beweise vorzulegen. Um einem Antrag auf Abweisung standzuhalten, musste Walters lediglich nachweisen, dass seine Beschwerde hinreichend durch Fakten gestützt wurde, argumentierte Monroe.
Da es nicht gelingt, das Gericht davon zu überzeugen, dass Walters keinen Fall hatte, werden die Rechtstheorien von OpenAI bezüglich seiner Haftung für die „Halluzinationen“ von ChatGPT nun wahrscheinlich vor Gericht zum ersten Mal auf die Probe gestellt.
„Wir freuen uns, dass das Gericht den Antrag auf Abweisung abgelehnt hat, damit die Parteien die Möglichkeit haben, die Begründetheit des Falles zu prüfen und eine Entscheidung darüber zu treffen“, sagte Monroe gegenüber Ars.
Was ist der Verleumdungsfall gegen OpenAI?
Walters verklagte OpenAI, nachdem ihn ein Journalist, Fred Riehl, gewarnt hatte, dass ChatGPT auf eine Anfrage hin eine komplette Klage erfunden habe. ChatGPT reichte eine vollständige Beschwerde mit einer falschen Fallnummer ein und behauptete fälschlicherweise, Walters sei des Betrugs und der Veruntreuung von Geldern der Second Amendment Foundation beschuldigt worden.
Walters ist Moderator von Armed America Radio und gilt als die „lauteste Stimme Amerikas, die für Waffenrechte kämpft“. Er behauptete, OpenAI habe „rücksichtslos“ außer Acht gelassen, ob die Ausgaben von ChatGPT falsch seien, und behauptete, OpenAI wisse, dass „die Halluzinationen von ChatGPT allgegenwärtig und schwerwiegend seien“ und habe nicht dazu beigetragen, angeblich verleumderische Ausgaben zu verhindern. Aus Walters Sicht waren die falschen Aussagen ernst genug, um sie zu sein potenziell karriereschädigend, „damit Walters Ruf geschädigt wird und er öffentlicher Hass, Verachtung oder Spott ausgesetzt wird.“
Monroe argumentierte, dass Walters als Privatmann „eine Klage wegen Verleumdung an sich „angemessen dargelegt“ habe, „für die nach georgischem Recht Abhilfe gewährt werden kann“, wo in „allen Klagen wegen Verleumdung“ auf „Böswilligkeit geschlossen“ wird, dies aber „möglicherweise der Fall sein kann“. widerlegt“ von OpenAI.
Als Gegenargument argumentierte OpenAI, dass Walters eine Persönlichkeit des öffentlichen Lebens sei, die beweisen müsse, dass OpenAI mit „tatsächlicher Bosheit“ gehandelt habe, als es ChatGPT erlaubt habe, angeblich schädliche Ausgaben zu produzieren. Aber Monroe sagte dem Gericht, dass OpenAI „nicht genügend Fakten vorgelegt hat, um nachzuweisen, dass Walters eine Persönlichkeit des öffentlichen Lebens ist“.
Ob Walters eine Persönlichkeit des öffentlichen Lebens ist oder nicht, könnte eine weitere Schlüsselfrage sein, die Cason dazu veranlassen wird, gegen den Abweisungsantrag von OpenAI zu entscheiden.
Vielleicht frustrierte dies das Gericht auch dadurch, dass OpenAI in seinem Antrag auf Abweisung „eine große Menge Material“ eingebracht habe, das außerhalb des Rahmens der Beschwerde liege, argumentierte Monroe. Dazu gehörte der Hinweis auf einen Haftungsausschluss in den Nutzungsbedingungen von ChatGPT, der Benutzer warnt, dass die Antworten von ChatGPT möglicherweise nicht korrekt sind und vor der Veröffentlichung überprüft werden sollten. Laut OpenAI macht dieser Haftungsausschluss Riehl zum „Eigentümer“ aller verleumderischen ChatGPT-Antworten auf seine Anfragen.
„Ein Haftungsausschluss macht eine ansonsten verleumderische Aussage nicht unverleumderisch“, argumentierte Monroe. Und selbst wenn Riehl durch den Haftungsausschluss für die Veröffentlichung der ChatGPT-Ausgabe haftbar gemacht werden sollte – ein Argument, das einige ChatGPT-Benutzer zum Nachdenken veranlassen könnte –, „bedeutet diese Verantwortung nicht, dass die Verantwortung des ursprünglichen Herausgebers des Materials negiert wird“, argumentierte Monroe .
Darüber hinaus verwies OpenAI auf ein Gespräch zwischen Walters und OpenAI, obwohl Monroe sagte, dass in der Beschwerde „nicht behauptet wird, dass Walters jemals ein Gespräch mit OpenAI geführt hat“. Und OpenAI argumentierte auch etwas seltsam, dass ChatGPT-Ausgaben als „unternehmensinterne Kommunikation“ und nicht als Veröffentlichungen betrachtet werden könnten, was darauf hindeutet, dass ChatGPT-Benutzer bei der Abfrage des Chatbots als private Auftragnehmer betrachtet werden könnten.
Wenn die Klage voranschreitet, erhalten neugierige Chatbot-Benutzer auf der ganzen Welt möglicherweise endlich die Antwort auf eine Frage, die unklar war, seit ChatGPT nach seiner Einführung im November 2022 schnell zur am schnellsten wachsenden Verbraucheranwendung aller Zeiten wurde: Werden die Halluzinationen von ChatGPT zugelassen, um Leben zu ruinieren? ?
In der Zwischenzeit untersucht die FTC offenbar immer noch mögliche Schäden, die durch die „falschen, irreführenden oder herabwürdigenden“ Generationen von ChatGPT verursacht werden.
Ein FTC-Sprecher hatte zuvor gegenüber Ars erklärt, dass die FTC grundsätzlich keine Kommentare zu nichtöffentlichen Untersuchungen abgibt.
OpenAI reagierte nicht sofort auf die Bitte von Ars um einen Kommentar.