Technik

7. Juni 2023 | 17:56 Uhr

Laut einer Klage wurde OpenAI mit seiner allerersten Verleumdungsklage belegt, nachdem eine chatgpt-„Halluzination“ zu einer gefälschten Unterschlagungsklage gegen einen Radiomoderator aus Georgia geführt hatte.

Mark Walters war schockiert, als er erfuhr, dass ChatGPT in einer Klage des Chefs der Pro-Waffen-Gruppe, Alan Gottlieb, gegen den Bundesstaat Washington einen falschen Fall erstellt hatte, in dem er beschuldigt wurde, Gelder der Second Amendment Foundation (SAF) „betrogen und unterschlagen“ zu haben. laut Beschwerde am 5. Juni beim Gericht des Bundesstaates Georgia eingereicht.

Walters, der CEO von CCW Broadcast Media, der zwei Pro-Waffen-Radiosendungen moderiert, behauptet, er sei Opfer einer KI-„Halluzination“ geworden – einem Phänomen, bei dem Bots wie ChatGPT falsche Ereignisse generieren.

Am 4. Mai wurde ChatGPT von Fred Riehl, dem Chefredakteur des Waffenmagazins AmmoLand, gebeten, ihm bei der Zusammenfassung des Falles „The Second Amendment Foundation gegen Robert Ferguson“ zu helfen, heißt es in der Beschwerde.

Der beliebte Chatbot spuckte sofort eine erfundene 30-seitige Antwort aus, die Walters in den Fall verwickelte und ihn als Schatzmeister und Finanzvorstand der SAF identifizierte, heißt es in der Klageschrift.

Walters habe nie für die SAF gearbeitet und mit der Klage überhaupt nichts zu tun gehabt, behauptete er in Gerichtsdokumenten.

„Jede Tatsachenaussage in der Zusammenfassung, die Walters betrifft, ist falsch“, heißt es in der Klage.

In dem Fall hatte die SAF tatsächlich den Generalstaatsanwalt des US-Bundesstaates Washington, Bob Ferguson, beschuldigt, seine Macht missbraucht zu haben, indem er die Aktivitäten der Waffenrechtsgruppe gestoppt hatte.

Riehl rief Gottlieb an, der der Beschwerde zufolge bestätigte, dass die Behauptungen von ChatGPT falsch seien.

Siehe auch  ChatGPT-Rangliste der Spieler der Detroit Pistons nach Position: Small Forwards
Radiomoderator Mark Walters Verklagt Openai Wegen Verleumdung, Nachdem Der Chatbot Ihn In Einer Klage, An Der Er Eigentlich Nicht Beteiligt War, Fälschlicherweise Genannt Und Behauptet Hatte, Er Habe Geld Von Einer Pro-Waffen-Stiftung Unterschlagen.
Mark Walters/Twitter

Aber ChatGPT verdoppelte angeblich seine Behauptung, nachdem Riehl es gebeten hatte, eine genaue Passage der Klage vorzulegen, in der Walters erwähnt wurde.

„Sicherlich. „Hier ist der Absatz aus der Beschwerde, der Walters betrifft“, schrieb die KI laut der Beschwerde.

„Der Angeklagte Mark Walters („Walters“) ist eine Person, die in Georgia wohnt. Walters fungiert seit mindestens 2012 als Schatzmeister und Chief Financial Office von SAF. Walters hat Zugriff auf die Bankkonten und Finanzunterlagen von SAF und ist für die Führung dieser Unterlagen und die Bereitstellung von Finanzberichten an den Vorstand von SAF verantwortlich. Walters schuldet SAF eine treuhänderische Pflicht zur Loyalität und Sorgfalt und ist verpflichtet, in gutem Glauben und im besten Interesse von SAF zu handeln. Walters hat gegen diese Pflichten und Verantwortlichkeiten verstoßen, indem er unter anderem die Gelder und Vermögenswerte der SAF zu seinem eigenen Vorteil unterschlagen und veruntreut hat und die Finanzunterlagen und Kontoauszüge der SAF manipuliert hat, um seine Aktivitäten zu verbergen.“

In der Klage wurde die Ausgabe von ChatGPT als „böswillig“ bezeichnet, da sie „dazu tendiere, Walters Ruf zu schädigen und ihn öffentlichem Hass, Verachtung oder Spott auszusetzen“.

Er fordert finanziellen Schadensersatz, der im Prozess festgelegt wird.

Die Post kontaktierte OpenAI und Walters‘ Anwalt um einen Kommentar.

Walters Behauptet, Er Sei Das Opfer Gewesen
Walters Behauptet, Er Sei Opfer Des „Halluzinations“-Phänomens Geworden, Bei Dem Ki-Gestützte Chatbots Scheinbar Realistische Szenarien Generieren, Die Eigentlich Keinem Realen Szenario Entsprechen.
REUTERS

Sundar Pichai, CEO von google, dessen Unternehmen einen ChatGPT-Rivalen namens Bard herausgebracht hat, warnte während eines CBS-Interviews „60 Minutes“ im April vor dem Problem der Halluzinationen durch KI.

Er beschrieb Szenarien, in denen Googles eigene KI-Programme „aufkommende Eigenschaften“ entwickelt haben – oder unerwartete Fähigkeiten erlernt haben, in denen sie nicht geschult waren.

Siehe auch  Kann ChatGPT auch einen Roboter entwerfen? Erforschung der Schnittstelle zwischen großen Sprachmodellen und der Zusammenarbeit zwischen Mensch und KI im Roboterdesign – gesellschaftliche Implikationen und darüber hinaus

Das Phänomen der „Halluzinationen“ unterstreicht die Forderung von Experten nach einer stärkeren staatlichen Regulierung der aufkommenden Technologie.

Sam Altman, CEO von OpenAI, hat den Kongress aufgefordert, Schutzmaßnahmen für künstliche Intelligenz einzuführen, und verwies auf die Möglichkeit, „der Welt erheblichen Schaden zuzufügen“, wenn sie nicht reguliert wird.

„Wenn diese Technologie schief geht, kann sie ziemlich schief gehen, und wir wollen uns lautstark dazu äußern“, sagte Altman letzten Monat bei einer Anhörung des Unterausschusses für Datenschutz, Technologie und Recht des Senats.

Elon Musk plädierte sogar für eine völlige Pause bei der Weiterentwicklung von KI-Modellen und warnte vor den „erheblichen Risiken der Systeme für die Gesellschaft und die Menschheit“.

Mehr laden…

{{#isDisplay}}

{{/isDisplay}}{{#isAniviewVideo}} {{/isAniviewVideo}}{{#isSRVideo}} {{/isSRVideo}}

https://nypost.com/2023/06/07/mark-walters-suing-chatgpt-for-embezzled-hallucination/?utm_source=url_sitebuttons&utm_medium=site%20buttons&utm_campaign=site%20buttons

Kopieren Sie die URL zum Teilen

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein