OpenAI löste mit der Veröffentlichung von chatgpt im vergangenen Jahr einen KI-Boom aus. Neben nützlichen Tipps und Daten begann der Chatbot, viele Fehlinformationen zu verbreiten, die auch als Halluzinationen bezeichnet werden. Das Unternehmen hat kürzlich seinen Plan zur Lösung dieses Problems vorgeschlagen, einige Experten haben jedoch bereits Skepsis gegenüber den Ideen von OpenAI geäußert. Schreibt darüber CNBC.
Eine Halluzination liegt vor, wenn eine KI wie ChatGPT oder Bard falsche Informationen meldet, sich aber so verhält, als würde sie verifizierte Fakten liefern. Zum Beispiel kürzlich ChatGPT verwiesen zu gefälschten Fällen in einer Bundesgerichtsakte.
„Selbst die fortschrittlichsten KI-Modelle neigen dazu, falsche Informationen zu melden. Dem OpenAI-Bericht zufolge neigen sie dazu, in Zeiten der Unsicherheit Fakten zu erfinden. „Diese Halluzinationen verursachen viele Probleme in Branchen, die mehrstufiges Denken erfordern, da ein logischer Fehler ausreicht, um eine größere Lösung zu vereiteln.“
Die neue Strategie von OpenAI besteht darin, die KI so zu trainieren, dass sie sich selbst für jeden einzelnen, richtigen Denkschritt belohnt, wenn sie zu einer Antwort gelangt, anstatt die richtige endgültige Schlussfolgerung zu belohnen. Dieser Ansatz wird als „Prozessüberwachung“ im Gegensatz zu „Ergebnisüberwachung“ bezeichnet und könnte den Forschern zufolge zu einer besseren Leistungsfähigkeit der künstlichen Intelligenz führen. Diese Strategie ermutigt Modelle, einen eher menschenähnlichen Gedankengang zu verfolgen.
„Das Erkennen und Abmildern von Logikfehlern oder Modellhalluzinationen ist ein entscheidender Schritt zum Aufbau einer konsistenten AGI (oder Allzweck-KI)“, sagte der OpenAI-Forscher.
Das Unternehmen stellte einen begleitenden Datensatz mit 800.000 Labels zur Verfügung, den es zum Trainieren des in der Erklärung erwähnten Modells verwendete.
Einige Wissenschaftler stehen den Plänen des Unternehmens jedoch skeptisch gegenüber. Sie glauben, dass OpenAI zu wenig Informationen bereitgestellt hat, sodass seine Arbeit sehr undurchsichtig ist.
- Zuvor hatte ChatGPT dies behauptet schrieb die Arbeit einiger Studenten. Jetzt sind sie ohne Diplome und beweisen ihre Urheberschaft. Die Absurdität der Situation besteht darin, dass dieser Chatbot nicht dafür konzipiert ist, auf Plagiate überprüft zu werden.