Benzinga – von Rounak Jain, Benzinga-Mitarbeiterautor.
KI-Chatbots mögen ChatGPT von OpenAI, Microsoft Corp (NASDAQ:MSFT) Kopilot und andere können manchmal Antworten oder Ausgaben erzeugen, die unsinnig sind. Dies wird als Halluzination bezeichnet. Obwohl es manchmal vorkommt, kennt nicht jeder den Grund dafür.
Was ist passiert: Meta Platforms Inc.s (NASDAQ:META) Chef-KI-Wissenschaftler und „Godfather of AI“ Yann LeCun hat in einer Episode von genau erklärt, warum KI-Chatbots halluzinieren Lex Fridman Podcast.
Halluzination in der KI bezieht sich auf das Phänomen, bei dem große Sprachmodelle (LLMs) Antworten oder Ausgaben erzeugen, die unsinnig, irrelevant oder von der Eingabe oder dem Kontext getrennt sind.
Aber warum passiert es? Warum verlieren Chatbots wie ChatGPT und Copilot den Überblick?
„Aufgrund der autoregressiven Vorhersage besteht jedes Mal, wenn eine KI einen Token oder ein Wort erzeugt, eine gewisse Wahrscheinlichkeit, dass dieses Wort Sie aus der Reihe vernünftiger Antworten herausführt“, erklärt LeCun und beschreibt, wie Chatbots die Konversation entgleisen lassen.
Mit fortschreitender Konversation steigt laut LeCun die Wahrscheinlichkeit, dass Chatbots eine unsinnige Antwort zurückgeben, exponentiell.
„Es ist, als würden sich Fehler anhäufen. Die Wahrscheinlichkeit, dass eine Antwort unsinnig wäre, steigt also exponentiell mit der Anzahl der Token.“
LeCun erklärt, dass große Sprachmodelle nicht immer alle Fragen berücksichtigen, die ein Benutzer stellen könnte, und wenn ein Benutzer eine Frage stellt, die außerhalb des Rahmens liegt, auf den das Modell trainiert wurde, beginnt es zu halluzinieren und spuckt Unsinn aus.
Warum es wichtig ist: KI-Chatbots neigen zu Halluzinationen und können Benutzer manchmal dazu auffordern, sie „anzubeten“, wie es kürzlich bei Microsofts Copilot der Fall war.
Als Microsoft zuvor die ChatGPT-Technologie von OpenAI übernahm und den Bing AI-Chatbot auf den Markt brachte, stellten Benutzer schnell fest, dass es mehrere andere Personas gab, die unter anderem „Sydney“, „Fury“ und „Venom“ hießen.
Jetzt wissen wir, warum sich Chatbots manchmal verrückt verhalten.
Weitere Informationen zur Consumer-Tech-Berichterstattung von Benzinga finden Sie unter diesem Link.
Weiterlesen: Microsofts Sydney AI feiert ein Comeback? Neue Copilot-Gespräche deuten auf die Rückkehr des frechen Chatbots hin
Foto mit freundlicher Genehmigung: Shutterstock
© 2024 Benzinga.com. Benzinga bietet keine Anlageberatung an. Alle Rechte vorbehalten.