Laut der Klage übermittelte chatgpt dem Chefredakteur der Waffenseite AmmoLand, Fred Reel, falsche Dokumente, in denen Mark Walters erwähnt wurde, als er AI bat, Daten zu einem echten Gerichtsverfahren im Bundesstaat Washington zu sammeln. berichtet Bloomberg.

Dabei ging es um den Rechtsstreit zwischen der Second Amendment Foundation, einer gemeinnützigen Stiftung zum Schutz der Rechte der Bürger auf Waffen, und dem Generalstaatsanwalt des US-Bundesstaates Washington, Bob Ferguson. Vertreter der Organisation verklagten den Staatsanwalt und warfen ihm Machtmissbrauch vor.

Als Fred Reel ChatGPT um eine Zusammenfassung des Falles „Second Amendment Foundation v. Bob Fergusson“ bat, teilte ihm der Chatbot mit, dass der Gründer der Stiftung, Alan Gottlieb, Mark Walters angeblich wegen „Betrugs und Veruntreuung von Stiftungsgeldern als Finanzvorstand“ verklagt habe und Schatzmeister“. Gleichzeitig hat Mark Walters selbst nie für die Second Amendment Foundation gearbeitet und ist nicht an den Verfahren zwischen der Stiftung und dem Washingtoner Generalstaatsanwalt beteiligt.

OpenAI führte den ChatGPT-Fehler auf ein Phänomen zurück, das als „Halluzination“ bekannt ist. Dies geschieht, wenn die KI ohne Vorwarnung völlig falsche Informationen generiert und in der Mitte des entsprechenden Textes ein unzuverlässiges Fragment einfügen kann. „Halluzinationen“ können durch die Darstellung fiktiver Zitate und fiktiver Quellen sehr überzeugend wirken. Auf der OpenAI-Website wird vor dem Risiko solcher Ausfälle gewarnt.

ChatGPT ist bereits auf ähnliche Fehler gestoßen. Von Reuters-InformationenIm April 2023 versprach der Bürgermeister des australischen Hepburn County Council, Brian Hood, OpenAI wegen Verleumdung zu verklagen, sofern das Unternehmen die falschen Behauptungen von ChatGPT über ihn nicht korrigiert.

Der Chatbot berichtete, dass Brian Hood angeblich vier Jahre im Gefängnis saß, weil er während seiner Arbeit bei Note Printing Australia, einer Tochtergesellschaft der Reserve Bank of Australia, Bestechungsgelder erhalten hatte. Der Mann arbeitete zwar dort und half den Behörden, Korruptionspläne in der Bank aufzudecken, er selbst wurde jedoch nie wegen eines Verbrechens verurteilt oder angeklagt. Der Konflikt zwischen Brian Hood und OpenAI wurde vor dem Prozess beigelegt.

Siehe auch  OpenAI startet nächste Woche den ChatGPT-App-Store

Zuvor hatte Plus-one.ru über den Vorschlag von OpenAI-CEO Sam Altman gesprochen, ein internationales Gremium zur Kontrolle der KI-Industrie einzurichten, ähnlich der UN-Agentur für Kernenergie, der IAEA. Etwas früher wandte sich die Europäische Kommission an große IT-Unternehmen mit der Bitte, alle mit künstlicher Intelligenz erstellten Inhalte zu kennzeichnen.

Abonnieren An Unser Kanal V Telegramm

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein