KI-Chatbots wie chatgpt von OpenAI werden als revolutionäre Tools angepriesen, die Arbeitnehmern dabei helfen könnten, am Arbeitsplatz effizienter zu werden, und diese Menschen in Zukunft möglicherweise vollständig ersetzen könnten. Eine neue Studie hat jedoch ergeben, dass ChatGPT Fragen zur Computerprogrammierung nur in 52 % der Fälle falsch beantwortet.

Einzelheiten

Die Studie der Purdue University wurde Anfang des Monats vorgestellt. Es wurden 517 Richtlinienfragen beantwortet, die an ChatGPT übermittelt wurden. „Unsere Analyse zeigt, dass 52 % der ChatGPT-Antworten falsche Informationen enthielten“, schreiben die Autoren und fügen hinzu, dass die Teilnehmer aufgrund ihrer Vollständigkeit und ihres klar formulierten Schreibstils immer noch in 35 % der Fälle ChatGPT-Antworten bevorzugten. Darüber hinaus waren die Antworten in 77 % der Fälle mit unnötigen Details gefüllt.

Siehe auch Unglaubliche Fähigkeiten: OpenAI stellt das atemberaubende kostenlose KI-Modell GPT-4o vor

Die Programmierer, die an der Studie teilgenommen haben Fehler sind mir nicht immer aufgefallenwas der Chatbot mit künstlicher Intelligenz ermöglichte.

In 39 % der Fälle ignorierten sie Fehlinformationen in ChatGPT-Antworten. Das bedeutet, Fehlinformationen in den Antworten von ChatGPT auf Programmierfragen entgegenzuwirken und das Bewusstsein für die Risiken zu schärfen, die mit vermeintlich richtigen Antworten verbunden sind. – sagt die Studie.

Natürlich ist dies nur eine Studie, aber sie zeigt die Probleme auf, mit denen jeder konfrontiert sein kann, der diese Tools verwendet. Große Technologieunternehmen investieren Milliarden von Dollar in künstliche Intelligenz, um die zuverlässigsten Chatbots zu entwickeln. Meta, Microsoft und google wetteifern um die Vorherrschaft in einem neuen Bereich, der unsere Beziehung zum Internet grundlegend verändern könnte, und versuchen, mit OpenAI gleichzuziehen. Doch es gibt eine Reihe von Hindernissen, die ihnen im Weg stehen.

Siehe auch  Logitech führt ein Softwaretool für den schnellen Zugriff auf die ChatGPT-Funktionalität ein

Das Hauptproblem besteht darin, dass die KI oft unzuverlässig ist, insbesondere wenn der Benutzer eine wirklich einzigartige Frage stellt. Die neue KI-gestützte Suche von Google liefert manchmal Unsinn, der oft aus unzuverlässigen Quellen stammt, weil die KI nicht unterscheiden kann, was wahr und was falsch ist. Er ist lediglich in der Lage, Bildungsinformationen zusammenzustellen und zusammenzufassen. Das heißt, wenn Sie ihn belügen, wird er auch lügen.

OpenAI hat die Studie nicht kommentiert.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein