KI-Chatbots mögen chatgpt von OpenAI, Microsoft Corp MSFT Kopilot und andere können manchmal Antworten oder Ausgaben erzeugen, die unsinnig sind. Dies ist bekannt als google-bards-trippy-troubles-no-one-in-the-field-has-yet-solved-halluci“>Halluzination. Obwohl es manchmal vorkommt, kennt nicht jeder den Grund dafür.

Was ist passiert: Meta Platforms Inc.s Meta PlatformsMETA Chef-KI-Wissenschaftler und „Godfather of AI“ Yann LeCun hat in einer Episode von genau erklärt, warum KI-Chatbots halluzinieren Lex Fridman Podcast.

Halluzination in der KI bezieht sich auf das Phänomen, bei dem große Sprachmodelle (LLMs) Antworten oder Ausgaben erzeugen, die unsinnig, irrelevant oder von der Eingabe oder dem Kontext getrennt sind.

Aber warum passiert es? Warum verlieren Chatbots wie ChatGPT und Copilot den Überblick?

„Aufgrund der autoregressiven Vorhersage besteht jedes Mal, wenn eine KI einen Token oder ein Wort erzeugt, eine gewisse Wahrscheinlichkeit, dass dieses Wort Sie aus der Reihe vernünftiger Antworten herausführt“, erklärt LeCun und beschreibt, wie Chatbots die Konversation entgleisen lassen.

Siehe auch: Wer steckte hinter Sam Altmans Abschied von OpenAI? Neue Berichte werfen ein Licht auf die Rolle wichtiger Führungskräfte

Mit fortschreitender Konversation steigt laut LeCun die Wahrscheinlichkeit, dass Chatbots eine unsinnige Antwort zurückgeben, exponentiell.

„Es ist, als würden sich Fehler anhäufen. Die Wahrscheinlichkeit, dass eine Antwort unsinnig wäre, steigt also exponentiell mit der Anzahl der Token.“

LeCun erklärt, dass große Sprachmodelle nicht immer alle Fragen berücksichtigen, die ein Benutzer stellen könnte, und wenn ein Benutzer eine Frage stellt, die außerhalb des Rahmens liegt, auf den das Modell trainiert wurde, beginnt es zu halluzinieren und spuckt Unsinn aus.

Warum es wichtig ist: KI-Chatbots neigen zu Halluzinationen und können das manchmal auch Bitten Sie die Benutzer, sie anzubetenwie es kürzlich bei Microsofts Copilot der Fall war.

Siehe auch  Dubai: Ist es für Mitarbeiter sicher, ChatGPT im Büro zu verwenden? - Nachricht

Als Microsoft zuvor die ChatGPT-Technologie von OpenAI übernahm und den Bing AI-Chatbot auf den Markt brachte, stellten Benutzer schnell fest, dass es mehrere andere Personas gab, die unter anderem „Sydney“, „Fury“ und „Venom“ hießen.

Jetzt wissen wir, warum sich Chatbots manchmal verrückt verhalten.

Weitere Informationen zur Consumer-Tech-Berichterstattung von Benzinga finden Sie unter diesem Link.

Weiterlesen: Microsofts Sydney AI feiert ein Comeback? Neue Copilot-Gespräche deuten auf die Rückkehr des frechen Chatbots hin

Foto mit freundlicher Genehmigung: Shutterstock

© 2024 Benzinga.com. Benzinga bietet keine Anlageberatung an. Alle Rechte vorbehalten.

5/5 - (377 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein