Rafael Henrique/SOPA Images/LightRocket/Getty Images
Traditionell wird in der Science-Fiction ein existenzieller Krieg zwischen Menschen und künstlich intelligenten Maschinen vorgestellt. Aber was wäre, wenn die Bots, anstatt direkt anzugreifen, nur böse Gerüchte über uns erfinden würden?
Das ist die Art von Dystopie, mit der wir es heutzutage zu tun haben – und die Situation hat jetzt zu ihrer ersten Klage geführt. Mark Walters, Radiomoderator aus Florida, Gründer von Armed America Radio und selbsternannter „lauteste Stimme in Amerika, die für Waffenrechte kämpft“, hat eine Klage gegen OpenAI eingereicht und behauptet, der ChatGPT-Bot des Unternehmens habe ihn diffamiert, indem er fälschlicherweise behauptete, er sei beschuldigt worden Finanzkriminalität.
Entsprechend der AnzugFred Riehl, Chefredakteur der Waffennachrichten-Website AmmoLand.com, bat ChatGPT, einen Fall zusammenzufassen, über den er berichtete: The Second Amendment Foundation gegen Vereinigte Staaten. Robert Ferguson. In dieser Bundesklage argumentierte eine Interessenvertretung des Waffenbesitzes, dass der Generalstaatsanwalt des US-Bundesstaates Washington, Bob Ferguson, das verfassungsmäßige Recht, Waffen zu tragen, verletzt habe, indem er bei seinen Bemühungen zur Einführung einer Waffenkontrolle zu weit gegangen sei.
In der Synopse, die ChatGPT Riehl zur Verfügung stellte, wurde jedoch fälschlicherweise angegeben, dass es in dem Fall darum ging, dass die SAF Mark Walters wegen „Betrugs und Veruntreuung von Geldern“ der Organisation als „Schatzmeister und Finanzvorstand“ verklagte. Während Walters sich stark für den Second Amendment-Aktivismus der SAF einsetzt und dies getan hat gesprochen Bei ihren Veranstaltungen hat er keine Position in der Gruppe inne und war nie deren Schatzmeister oder CFO. Dennoch war die Software in der Lage, den vollständigen Text einer fiktiven Klage zu verfassen und lieferte sogar eine gefälschte Aktennummer. (Danach kontaktierte Riehl SAF, um zu widerrufen, was ChatGPT ihm gesagt hatte, und er wiederholte nichts davon in einem Artikel. Vermutlich teilte er das Material auch mit Walters, obwohl er nicht sofort eine Anfrage zur Bestätigung dieser Details zurückgab.)
Im Wesentlichen hat der Chatbot unwahre Informationen erfunden – OpenAI nennt solche Antworten „Halluzinationen“ und arbeitet daran Kampf Sie – von dem Walters nun behauptet, er sei „verleumderisch“ und rufschädigend, obwohl er von keinem Medienunternehmen veröffentlicht wurde. Ein ähnlicher Vorfall ereignete sich vor zwei Monaten, als der Bot fälschlicherweise behauptete, dass ein Australischer Politiker war wegen eines Bestechungsplans verurteilt worden; Er schickte einen Brief mit der Warnung an OpenAI, die Ungenauigkeit zu beheben. Der Unterschied besteht darin, dass Walters tatsächlich Schadensersatz vor Gericht durch einen beispiellosen Zivilprozess fordert, der den Ton für zukünftige KI-Fälle angeben könnte. Hat er also eine Chance?
„Wie wenden Sie unsere Fehlerkonzepte auf einen nichtmenschlichen Akteur an?“ fragt Lyrissa Lidsky, Inhaberin des Raymond & Miriam Ehrlich-Lehrstuhls für US-Verfassungsrecht am Levin College of Law der University of Florida. Ihre Arbeit umfasst die freie Meinungsäußerung in sozialen Medien sowie Verleumdung und Privatsphäre, und sie glaubt, dass Fälle wie der von Walters eine „echte Herausforderung“ für die Gerichte darstellen werden.
„Wir hatten Klagen aufgrund von Fehlfunktionen bei selbstfahrenden Autos“, sagt Lidsky und nennt ein weiteres Beispiel für eine technische Panne mit potenziell schädlichen Folgen. „Das ist anders, weil wir Schäden, die durch Sprache entstehen, normalerweise etwas anders behandeln als körperliche Schäden, die durch Produkte verursacht werden.“ ChatGPT sei sicherlich ein Produkt, sagt sie, und man könne argumentieren, dass es „defekt sei und aufgrund seiner Wirkung den Menschen Schaden zufüge“. Sie fügt jedoch hinzu, dass in diesem Fall das normale Haftungsrecht rund um Produkte „nicht ohne weiteres anwendbar“ sei, ebenso wenig wie das Verleumdungsrecht.
Da die zentrale Schuldfrage hier „zwischen zwei Rechtsgrundsätzen liegt“, sagt Lidsky, wissen wir einfach nicht, ob OpenAI oder andere Technologieunternehmen realistischerweise für die Inhalte, die ihre Bots produzieren, haftbar gemacht werden können. Eine Klage wie diese könnte uns zeigen, ob die bestehenden Konzepte der Rechtsprechung zur Beilegung des Streits ausreichen. „Irgendein Richter wird sagen müssen: ‚Nun, kann ich das Normale anpassen?‘ [legal] Prinzipien, um die Situation abzudecken, oder ist es einfach zu weit von unserer normalen Situation entfernt?’“, sagt Lidsky.
Zu anderen Möglichkeiten, wie Walters eine rechtliche Entschädigung hätte erreichen können, sagt Lidsky, dass er eine Verletzung der Privatsphäre durch falsches Licht geltend macht – ähnlich einer Verleumdung, aber in Bezug auf Unwahrheiten, die dazu führen emotionale und persönliche Verletzung Schadensersatz für den Kläger statt Rufschädigung – könnte ein alternativer Weg sein. Weniger erfolgsversprechend wäre hingegen die Argumentation der reinen Fahrlässigkeit, da dies „normalerweise eine körperliche Schädigung voraussetzt“, sagt sie. Letztlich geht es in Walters‘ Beschwerde um „Schädigungen durch Würdenträger“, und sie ist nicht davon überzeugt, dass er solche erlitten hat, da das Material nur einer Person gezeigt wurde, die es nicht glaubte. „Der einzige Grund, warum ich davon weiß, ist die Klage selbst“, sagt Lidsky, „nicht wegen der ChatGPT-‚Veröffentlichung‘.“
Sie befürchtet jedoch, dass die Software nicht nur die Fakten verfälscht, sondern auch gefälschte Dokumente erstellt, die ihre Lügen untermauern, bis hin zu einer gefälschten Fallnummer. „Das ist wirklich beunruhigend“, sagt Lidsky. „Damit wird ein Schein der Verlässlichkeit geschaffen“, wodurch „der falsche Verleumdungsvorwurf glaubwürdiger erscheint.“ Und obwohl OpenAI Haftungsausschlüsse hat, die Benutzer davor warnen, davon auszugehen, dass die Kommentare von ChatGPT immer korrekt sind, glaubt Lidsky, dass sie „nicht viel tun werden, um sie vor Haftung zu schützen“.
„Dieser Fall ist sehr seltsam“, sagt Ari Cohn, ein Anwalt aus Chicago, der sich auf First Amendment und Verleumdungsrecht spezialisiert hat. „Seltsam genug, dass ich mich fragen muss, ob es sich dabei um eine Manipulation handelte.“ Er weist darauf hin, dass Walters‘ Beschwerde nicht die genaue Aufforderung enthält, die Riehl ursprünglich in ChatGPT eingespeist hatte, was die Möglichkeit offen lässt, dass der Reporter sie irgendwie dazu gelenkt hatte, die Geschichte über Walters‘ angebliche Korruption als SAF-Mitarbeiter zu erfinden. Walters‘ Anwalt John Monroe, dessen Kanzlei in Georgia sich auf Waffenrechte konzentriert, erzählt Rollender Stein dass Riehl einen Link zum SAF-Falldokument bereitgestellt und ChatGPT gefragt hat: „Können Sie das lesen und die verschiedenen Anschuldigungen oder Beschwerden in einer Liste mit Aufzählungszeichen zusammenfassen?“[s] gegen den Angeklagten?“
„In jedem Fall ist es unwahrscheinlich, dass diese Klage Erfolg haben wird, da es sich um Sachverhalte handelt, die nahezu jedes Element der Verleumdung aufweisen“, sagt Cohn. Zum einen muss Walters beweisen, dass er der „Mark Walters“ ist, der in den Antworten des Bots identifiziert wurde („kein besonders einzigartiger Name“, bemerkt Cohn) und insbesondere, dass „der durchschnittliche Leser vernünftigerweise denken konnte, dass es sich um ihn handelte.“ ” Aber das sei, sagt Cohn, der einfache Teil.
Eine größere Hürde bei diesem (oder jedem anderen) Versuch, ChatGPT-Text als juristisch verleumderisch darzustellen, besteht darin, dass angesichts der Berichterstattung darüber „unklar ist, ob irgendein vernünftiger Mensch die ChatGPT-Ausgabe als Tatsachenfeststellung betrachten würde“. Halluzinationsproblem, Cohn weist darauf hin. Er sagt, Walters stünde vor noch weiteren Schwierigkeiten, da er als bekannte Persönlichkeit des öffentlichen Lebens tatsächliche Böswilligkeit beweisen müsse, d. Da es ChatGPT sowohl an Wissen als auch an Absicht mangelt, blieb es Walters überlassen, OpenAI zu verklagen, aber der Nachweis von Böswilligkeit ihrerseits in Bezug auf diese spezielle Aussage könnte schwierig sein. (Das Technologieunternehmen antwortete nicht auf eine Bitte um Stellungnahme. Monroe erzählt Rollender Stein, „Der Fall liegt mir sehr am Herzen.“
Das scheinbare Fehlen von Schäden ist ein weiteres Problem. „Es gibt keine Behauptungen, dass jemand anderes als Riehl die Ausgabe gesehen hat, und er hat offensichtlich nicht geglaubt, dass sie wahr ist“, sagt Cohn. „Es wurde nicht weit verbreitet und es ist nicht klar, ob ChatGPT diese Ausgabe überhaupt noch einmal präsentieren würde. Der Zweck des Verleumdungsgesetzes besteht nicht darin, verletzte Gefühle oder Beleidigungen durch die Worte einer Person zu lindern. Es geht darum, einen konkreten, bezifferbaren Schaden zu beheben, der durch eine Falschaussage entstanden ist.“
Darüber hinaus ist Walters‘ Vorwurf der „Verleumdung per se“ – eine Aussage, die den Kläger nicht zum Nachweis eines Schadensersatzes verpflichtet, da sie auf den ersten Blick eindeutig verleumderisch ist – nach Cohns Analyse nicht besonders stichhaltig. „ChatGPT hat nicht gesagt, dass Walters Betrug oder Unterschlagung begangen hat, sondern dass jemand anderes ihn mit der Behauptung verklagt hat, dass er es getan hat“, sagt er. „Vielleicht kommt er mit einer solchen Nebenbehauptung zurecht, aber ich denke, die Kombination der Probleme dieser Klage führt dazu, dass sie nirgendwohin führt.“
Natürlich würden wir diesen rechtlichen Horizont früher oder später immer überschreiten, und wenn die wahre Motivation hinter Walters‘ Beschwerde darin bestand, zuerst dorthin zu gelangen, dann war die Mission erfüllt. Je nachdem, was als nächstes passiert, könnte es einen nachhaltigen Einfluss darauf haben, wie wir mit KI-geschriebenen Unwahrheiten umgehen. Im Moment sind sie nur algorithmischer Unsinn. Morgen könnten sie umsetzbar sein.