chatgpt verleumdete einen Radiomoderator aus Georgia, indem er fälschlicherweise behauptete, er sei des Betrugs und der Veruntreuung von Geldern der Second Amendment Foundation (SAF) beschuldigt worden, eine Klage, die am Montag vor einem Gericht im US-Bundesstaat Georgia eingereicht wurde.

Der Gastgeber, Mark Walters, verklagte das Unternehmen für künstliche Intelligenz OpenAI vor dem Gwinnett County Superior Court mit der Begründung, dass die Aussagen des großen Sprachmodells des Unternehmens, ChatGPT, „falsch und böswillig“ seien. Der Chatbot gab auch an, dass Walters der Schatzmeister und Finanzvorstand der Stiftung sei, obwohl er in Wirklichkeit „keine Anstellung oder offizielle Beziehung zu SAF hat“. heißt es in der Klageschrift.

Entsprechend Gizmododies sei „eine einzigartige Verleumdungsklage ihrer Art“, obwohl frühere Fälle von ChatGPT „halluzinierten“ fragwürdige und ungenaue biografische Informationen sind viele. Beispielsweise behauptete ChatGPT Anfang des Jahres fälschlicherweise, dass Juraprofessor Jonathan Turley einer sei Von einem Studenten wird ihm sexuelle Belästigung vorgeworfen.

Im Fall Walters bat der Schusswaffenjournalist Fredy Riehl ChatGPT um eine Zusammenfassung eines aktuelle echte Klage, Die Second Amendment Foundation (SAF) v. Robert Ferguson. Nachdem Riehl ChatGPT einen Link zu dem Fall gegeben hatte, generierte ChatGPT eine Antwort mit Beschreibungen der Anschuldigungen gegen Walters, darunter Unterschlagung, Veruntreuung von Geldern und Manipulation von Finanzunterlagen. Nach einer Faktenprüfung der Anschuldigungen habe Reihl „bestätigt, dass sie falsch waren“, heißt es in der Klageschrift. Als ChatGPT damit konfrontiert wurde, wiederholte und erweiterte er die Anschuldigungen und legte sogar ein „Beweisstück 1“ vor, das „eine völlige Fälschung war und keinerlei Ähnlichkeit mit der tatsächlichen Beschwerde aufweist, einschließlich einer falschen Fallnummer“. Walters wird in nicht erwähnt Die Second Amendment Foundation (SAF) v. Robert Ferguson, bei dem es nicht einmal um Forderungen aus der Finanzbuchhaltung geht. „Was mich bei diesem Vorfall am meisten beeindruckte, war der Detaillierungsgrad, einschließlich der Namen von Personen, Anwaltskanzleien und Organisationen, mit denen ich vertraut war“, sagte Riehl PopSci Mittwoch. „Es brachte mich dazu, in Frage zu stellen, was ich über sie zu wissen glaubte.“

Siehe auch  Eine vignettenbasierte Bewertung der Fähigkeit von ChatGPT, angemessene und gleichberechtigte medizinische Beratung in allen Pflegekontexten bereitzustellen

Walters fordert nun einen nicht näher bezeichneten Schadensersatz, der im Prozess festgelegt werden soll, sowie alle anderen Rechtsmittel, die das Gericht und die Jury zu gewähren beschließen. Rechtsexperten sagten Gizmodo dass der Ausgang dieses konkreten Falles ungewiss ist, da Walters nachweisen muss, dass OpenAI wusste, dass die Informationen falsch waren oder die Wahrheit rücksichtslos missachtet haben, sowie „tatsächliche Böswilligkeit“ vorlag, damit die Handlungen von ChatGPT als Verleumdung gewertet werden können. ChatGPT selbst hat kein Bewusstsein und OpenAI und ähnliche Unternehmen Haftungsausschlüsse anbieten über das Potenzial ihrer generativen KI, ungenaue Ergebnisse zu liefern. Allerdings „werden diese Haftungsausschlüsse sie nicht vor Haftung schützen“ Lyrissa Lidsky erzählt PopSci. Lidsky, Inhaber des Raymond & Miriam Ehrlich-Lehrstuhls für US-Verfassungsrecht an der University of Florida Law School, geht davon aus, dass ein bevorstehendes Ereignis bevorsteht Ansturm von Rechtsfällen gegen Technologieunternehmen und ihre generativen KI-Produkte sei ein „ernsthaftes Problem“, mit dem sich die Gerichte auseinandersetzen müssen.

Für Lidsky versuchen die Designer hinter KI wie ChatGPT, beides zu erreichen. „Sie sagen: ‚Oh, auf die Ergebnisse dieser Suchanfragen kann man sich nicht immer verlassen‘, und dennoch bewerben sie sie gleichzeitig als immer besser“, erklärte sie. „Warum gibt es sie sonst, wenn sie völlig unzuverlässig sind?“ Und darin liege das Potenzial für rechtliches Verschulden, sagt sie.

Lidsky glaubt, dass aus der Sicht eines Anwalts für Verleumdungsfragen der „beunruhigendste“ Aspekt die wiederholte Verwendung der KI ist gezeigte Tendenz zu ganz Quellen erfinden. Und während Verleumdungsfälle im Allgemeinen darauf basieren, dass Menschen absichtlich oder versehentlich über jemanden lügen, stellt die Schuld eines nichtmenschlichen Sprechers seine eigenen Herausforderungen dar, sagte sie.

Siehe auch  ChatGPT oder Bard? 8 Vorteile des neuronalen Netzwerks von Google

Laut Lidsky gibt es keine einfache Lösung für das wachsende Problem, aber letztendlich wird es wahrscheinlich eine „überlegte Reaktion“ der gesetzgebenden Körperschaften erfordern. Sie bietet die Möglichkeit eines rechtlichen Schutzes für Unternehmen an, die behaupten, dass sie nicht für KI-verursachte Verleumdungen haften, solange sie Maßnahmen ergreifen, um falsche Anschuldigungen zu korrigieren, sobald sie über deren Existenz informiert werden. Lidsky vertraut jedoch nicht darauf, dass politische Akteure „sensibel“ auf diese Dilemmata reagieren, die ein großes technisches Wissen über große Sprachmodelle sowie Präzedenzfälle im Verleumdungsrecht erfordern.

„Einerseits wollen wir Innovationen fördern, andererseits bringen Sie ein Tool auf den Markt, das Lügen über Menschen erfindet, die ihnen schaden können“, sagte Lidsky. „Wie bringen Sie die beiden Seiten dieser Gleichung in Einklang?“

PopSci hat sowohl Walters als auch OpenAI um einen Kommentar gebeten und wird diesen Artikel aktualisieren, wenn sie antworten.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein