KI-Chatbots wie chatgpt von OpenAI werden als revolutionäre Tools angepriesen, die Arbeitnehmern dabei helfen könnten, am Arbeitsplatz effizienter zu werden, und diese Menschen in Zukunft möglicherweise vollständig ersetzen könnten. Eine neue Studie hat jedoch ergeben, dass ChatGPT Fragen zur Computerprogrammierung nur in 52 % der Fälle falsch beantwortet.
Einzelheiten
Die Studie der Purdue University wurde Anfang des Monats vorgestellt. Es wurden 517 Richtlinienfragen beantwortet, die an ChatGPT übermittelt wurden. „Unsere Analyse zeigt, dass 52 % der ChatGPT-Antworten falsche Informationen enthielten“, schreiben die Autoren und fügen hinzu, dass die Teilnehmer aufgrund ihrer Vollständigkeit und ihres klar formulierten Schreibstils immer noch in 35 % der Fälle ChatGPT-Antworten bevorzugten. Darüber hinaus waren die Antworten in 77 % der Fälle mit unnötigen Details gefüllt.
Siehe auch Unglaubliche Fähigkeiten: OpenAI stellt das atemberaubende kostenlose KI-Modell GPT-4o vor
Die Programmierer, die an der Studie teilgenommen haben Fehler sind mir nicht immer aufgefallenwas der Chatbot mit künstlicher Intelligenz ermöglichte.
In 39 % der Fälle ignorierten sie Fehlinformationen in ChatGPT-Antworten. Das bedeutet, Fehlinformationen in den Antworten von ChatGPT auf Programmierfragen entgegenzuwirken und das Bewusstsein für die Risiken zu schärfen, die mit vermeintlich richtigen Antworten verbunden sind. – sagt die Studie.
Natürlich ist dies nur eine Studie, aber sie zeigt die Probleme auf, mit denen jeder konfrontiert sein kann, der diese Tools verwendet. Große Technologieunternehmen investieren Milliarden von Dollar in künstliche Intelligenz, um die zuverlässigsten Chatbots zu entwickeln. Meta, Microsoft und google wetteifern um die Vorherrschaft in einem neuen Bereich, der unsere Beziehung zum Internet grundlegend verändern könnte, und versuchen, mit OpenAI gleichzuziehen. Doch es gibt eine Reihe von Hindernissen, die ihnen im Weg stehen.
Das Hauptproblem besteht darin, dass die KI oft unzuverlässig ist, insbesondere wenn der Benutzer eine wirklich einzigartige Frage stellt. Die neue KI-gestützte Suche von Google liefert manchmal Unsinn, der oft aus unzuverlässigen Quellen stammt, weil die KI nicht unterscheiden kann, was wahr und was falsch ist. Er ist lediglich in der Lage, Bildungsinformationen zusammenzustellen und zusammenzufassen. Das heißt, wenn Sie ihn belügen, wird er auch lügen.
OpenAI hat die Studie nicht kommentiert.