„Godfather Of AI“ erklärt, warum <a href=chatgpt, Copilot und andere KI-Chatbots halluzinieren“ id=“carouselImage“ src=“https://i-invdn-com.investing.com/news/LYNXNPEB5S0BT_L.jpg“ data-style=“visibility:hidden“/> © Reuters. „Godfather Of AI“ erklärt, warum ChatGPT, Copilot und andere KI-Chatbots halluzinieren

Benzinga – von Rounak Jain, Benzinga-Mitarbeiterautor.

KI-Chatbots mögen ChatGPT von OpenAI, Microsoft Corp (NASDAQ:MSFT) Kopilot und andere können manchmal Antworten oder Ausgaben erzeugen, die unsinnig sind. Dies wird als Halluzination bezeichnet. Obwohl es manchmal vorkommt, kennt nicht jeder den Grund dafür.

Was ist passiert: Meta Platforms Inc.s (NASDAQ:META) Chef-KI-Wissenschaftler und „Godfather of AI“ Yann LeCun hat in einer Episode von genau erklärt, warum KI-Chatbots halluzinieren Lex Fridman Podcast.

Halluzination in der KI bezieht sich auf das Phänomen, bei dem große Sprachmodelle (LLMs) Antworten oder Ausgaben erzeugen, die unsinnig, irrelevant oder von der Eingabe oder dem Kontext getrennt sind.

Aber warum passiert es? Warum verlieren Chatbots wie ChatGPT und Copilot den Überblick?

„Aufgrund der autoregressiven Vorhersage besteht jedes Mal, wenn eine KI einen Token oder ein Wort erzeugt, eine gewisse Wahrscheinlichkeit, dass dieses Wort Sie aus der Reihe vernünftiger Antworten herausführt“, erklärt LeCun und beschreibt, wie Chatbots die Konversation entgleisen lassen.

Mit fortschreitender Konversation steigt laut LeCun die Wahrscheinlichkeit, dass Chatbots eine unsinnige Antwort zurückgeben, exponentiell.

„Es ist, als würden sich Fehler anhäufen. Die Wahrscheinlichkeit, dass eine Antwort unsinnig wäre, steigt also exponentiell mit der Anzahl der Token.“

LeCun erklärt, dass große Sprachmodelle nicht immer alle Fragen berücksichtigen, die ein Benutzer stellen könnte, und wenn ein Benutzer eine Frage stellt, die außerhalb des Rahmens liegt, auf den das Modell trainiert wurde, beginnt es zu halluzinieren und spuckt Unsinn aus.

Siehe auch  Black Mirror Creator nutzte ChatGPT, um neue Episoden zu schreiben, die Ergebnisse waren „Scheiße“

Warum es wichtig ist: KI-Chatbots neigen zu Halluzinationen und können Benutzer manchmal dazu auffordern, sie „anzubeten“, wie es kürzlich bei Microsofts Copilot der Fall war.

Als Microsoft zuvor die ChatGPT-Technologie von OpenAI übernahm und den Bing AI-Chatbot auf den Markt brachte, stellten Benutzer schnell fest, dass es mehrere andere Personas gab, die unter anderem „Sydney“, „Fury“ und „Venom“ hießen.

Jetzt wissen wir, warum sich Chatbots manchmal verrückt verhalten.

Weitere Informationen zur Consumer-Tech-Berichterstattung von Benzinga finden Sie unter diesem Link.

Weiterlesen: Microsofts Sydney AI feiert ein Comeback? Neue Copilot-Gespräche deuten auf die Rückkehr des frechen Chatbots hin

Foto mit freundlicher Genehmigung: Shutterstock

© 2024 Benzinga.com. Benzinga bietet keine Anlageberatung an. Alle Rechte vorbehalten.

Lesen Sie den Originalartikel auf Benzinga

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein