chatgpt eignet sich möglicherweise hervorragend, um schnelle Fragen zu beantworten oder Ihnen sogar den Einstieg in einen Blog-Beitrag zu erleichtern. Allerdings ist der Chatbot in einer Sache nicht gut: Code schreiben.

Eine aktuelle Studie der Purdue University untersuchte, wie ChatGPT auf 517 verschiedene Fragen von Stack Overflow (SO) reagierte. Die Ergebnisse waren ziemlich enttäuschend.

„Unsere Untersuchung ergab, dass 52 Prozent der Antworten von ChatGPT Ungenauigkeiten enthielten und 77 Prozent ausführlich waren“, schrieben die Forscher in dem Artikel, der nicht von Experten begutachtet und auf einer Pre-Print-Seite veröffentlicht wurde.

Noch besorgniserregender ist, dass die Studie ergab, dass 54 % der vom Chatbot gemachten Fehler darauf zurückzuführen zu sein schienen, dass er das Konzept der ihm gestellten Frage nicht verstanden hatte.

In Fällen, in denen es die Frage verstand, hatte es oft Schwierigkeiten, eine richtige Antwort zu geben.

„In vielen Fällen haben wir gesehen, dass ChatGPT eine Lösung, einen Code oder eine Formel vorgab, ohne vorauszusehen oder über das Ergebnis nachzudenken“, sagten sie.

Die Studie unterstreicht die Bedeutung der Faktenprüfung von ChatGPT-Antworten.

Bemerkenswert ist, dass im Januar Insider berichteten, dass ein Amazon-Ingenieur ChatGPT verwendet habe, um Interviewfragen zu beantworten für einen Software-Codierungsjob im Unternehmen und der Bot konnte alles richtig machen.

Obwohl es sich möglicherweise nicht um den besten Programmierer handelt, wird erwartet, dass der Chatbot den US-Arbeitsmarkt in Mitleidenschaft zieht und möglicherweise 19 % der Berufe revolutioniert.

Eine Studie von OpenAI im März ergab, dass die Technologie anstelle menschlicher Übersetzer und Dolmetscher eingesetzt werden könnte. Langfristig könnte es auch Auswirkungen auf Karrieren wie Schriftsteller und Autoren, Mathematiker, Steuerberater, Buchhalter und Wirtschaftsprüfer und andere Berufe haben.

Siehe auch  So beheben Sie die Meldung „Fehler im Body Stream“ in ChatGPT

In dieser Studie wurde auch festgestellt, dass ChatGPT dazu neigt, Antworten zu erfinden. Auch wenn es also in der Lage ist, die Arbeit zu bewältigen, die normalerweise von Menschen erledigt wird, muss ein Mensch diese Arbeit beaufsichtigen, um sicherzustellen, dass sie korrekt ist.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein