05.06.2024 08:08
Alexander Cherman
KI-Bots, darunter chatgpt und google Gemini, ziehen oft unlogische Schlussfolgerungen
Künstliche Intelligenz erwies sich als nicht so intelligent wie erwartet. Laut einer neuen Studie ziehen beliebte KI-Chatbots wie ChatGPT und Google Gemini manchmal irrationale Schlussfolgerungen.
Wissenschaftler der Universität Cambridge führten eine Reihe von Tests an mehreren Sprachmodellen durch, um deren logisches Denkvermögen zu bewerten. Bei den Experimenten stellte sich heraus, dass KI anfällig für logische Fehler ist, insbesondere in Situationen, die ein intuitives Verständnis erfordern.
Lesen Sie uns auf Telegram: nur die aktuellsten und verifiziertesten Nachrichten
An der Studie waren ChatGPT von OpenAI, Google Gemini und andere ähnliche Modelle beteiligt. Die getesteten KI-Bots wurden mit Aufgaben konfrontiert, die begründete Schlussfolgerungen erforderten, zeigten jedoch häufig einen Mangel an gesundem Menschenverstand.
Wenn Chatbots beispielsweise gebeten wurden, Logikrätsel zu lösen oder Fragen zu beantworten, die ein Verständnis des Kontexts erforderten, gaben sie oft falsche Antworten. Die Forscher stellen fest, dass solche Fehler möglicherweise auf die Art und Weise zurückzuführen sind, wie Modelle auf riesigen Datenmengen trainiert werden, sie verstehen jedoch nicht immer das Wesentliche der Informationen.
Dr. Emily Sanders, eine der Autorinnen der Studie, sagte: „Unsere Ergebnisse zeigen, dass diese Systeme trotz aller Fortschritte in der KI noch weit davon entfernt sind, die menschliche Logik und den gesunden Menschenverstand zu verstehen. Dies ist ein wichtiger Aspekt, der bei der Entwicklung und Verwendung solcher Technologien berücksichtigt werden muss.“ .“
Die Forscher betonen die Notwendigkeit weiterer Verbesserungen der KI, damit diese Technologien Informationen genauer verstehen und verarbeiten können. Dies ist besonders wichtig im Zusammenhang mit ihrer Anwendung in realen Situationen, in denen Fehler schwerwiegende Folgen haben können.