GPT-5 ist nicht nur besser darin, schnellere Ergebnisse zu liefern, sondern soll auch sachlich korrekter sein. In den letzten Monaten haben wir mehrere Fälle erlebt, in denen chatgpt, Bing AI Chat oder google Bard absoluten Blödsinn ausspuckten – in der Fachsprache auch als „Halluzinationen“ bekannt. Dies liegt daran, dass diese Modelle mit begrenzten und veralteten Datensätzen trainiert werden. Beispielsweise verfügt die kostenlose Version von ChatGPT auf Basis von GPT-3.5 nur über Informationen bis Juni 2021 und antwortet möglicherweise ungenau, wenn Sie nach Ereignissen darüber hinaus gefragt werden.
Im Vergleich dazu wurde GPT-4 mit einem breiteren Datensatz trainiert, der noch bis September 2021 zurückreicht. OpenAI notiert subtile Unterschiede zwischen GPT-4 und GPT-3.5 in lockeren Gesprächen. GPT-4 erwies sich auch in einer Vielzahl von Tests als leistungsfähiger, darunter Unform Bar Exam, LSAT, AP Calculus usw. Darüber hinaus übertraf es GPT-3.5-Benchmark-Tests für maschinelles Lernen nicht nur in Englisch, sondern auch in 23 anderen Sprachen.
OpenAI behauptete GPT-4 hat viel weniger Halluzinationen und schnitt in seinen „internen kontradiktorischen Faktizitätsbewertungen“ um 40 % besser ab als GPT-3.5. Darüber hinaus weist GPT-4 eine um 82 % geringere Tendenz auf, auf „sensible Anfragen“ oder „unzulässige Inhalte“ wie Selbstverletzung oder medizinische Anfragen zu reagieren. Trotzdem weist GPT-4 verschiedene Vorurteile auf, aber OpenAI sagt, dass es bestehende Systeme verbessert, um gemeinsame menschliche Werte widerzuspiegeln und aus menschlichen Eingaben und Rückmeldungen zu lernen.
Die Eliminierung falscher Antworten aus GPT-5 wird der Schlüssel zu seiner weiteren Verbreitung in der Zukunft sein, insbesondere in kritischen Bereichen wie Medizin und Bildung.