[ad_1]
Nieman Lab, ein Unternehmen, das sich auf die Zukunft von Nachrichten und Innovationen konzentriert, hat einen Test mit chatgpt durchgeführt, um herauszufinden, ob es genaue Links zu Nachrichtenartikeln und Veröffentlichungen liefert. Der Test ergab, dass ChatGPT keine genauen Antworten lieferte. Stattdessen erfand ChatGPT seine eigenen URLs, die als „AI Hallucinating“ bekannt sind, um zu beweisen, dass es Recht hat. Dies bewies, dass KI-Chatbots eher dazu neigen zu lügen und Informationen zu erfinden, als Sie denken.
Andrew Deck, ein Forscher am Labor von Niemanbat ChatGPT, URLs zu zehn hochkarätigen Nachrichten von großen Nachrichtenunternehmen wie The Financial Times, The Times, The Wall Street Journal, The Verge, Politico, Le Monde, El Pais und Associated Press bereitzustellen. Als Reaktion auf die Aufforderung lieferte ChatGPT falsche URLs, die zu 404-Fehlerseiten führten. Einer der OpenAI-Sprecher sagte, dass das Unternehmen noch daran arbeite, Nachrichten in den KI-Chatbot zu integrieren. Nach einigen weiteren Entwicklungen wird ChatGPT in der Lage sein, genaue Links zu Nachrichtenpublikationen anzugeben. Er sagte jedoch nichts über die Halluzinationen der KI und die Bereitstellung erfundener URLs.
OpenAI hat Verträge mit vielen großen Nachrichtenunternehmen. Daher ist es ein großes Problem, dass ChatGPT keine korrekten URLs zu den Nachrichten dieser Unternehmen bereitstellt. Wir wissen noch nicht, wann OpenAI die Nachrichten auf ChatGPT korrekt bereitstellen wird oder wie zuverlässig sie sein werden. Aber eines ist sicher: Wenn KI Nachrichten-URLs erfindet, kann sie definitiv auch andere falsche Fakten erfinden. Verwenden Sie also KI-Chatbots, einschließlich ChatGPT, nicht gedankenlos, um genaue Informationen und Fakten herauszufinden.
Bild: DIW-Aigen
Lesen Sie weiter: Obwohl viele Research-Marketer behaupten, dass KI für ihre Arbeit nützlich ist, nutzen nicht viele
[ad_2]