[ad_1]

Während KI-Chatbots wie chatgpt von OpenAI versprechen, Arbeitsplätze zu revolutionieren, gibt eine neue Studie Anlass zur Sorge. Forscher der Purdue University fanden heraus, dass ChatGPT bei Fragen zur Computerprogrammierung in satten 52 % der Fälle falsche Antworten liefert. Diese besorgniserregende Statistik stammt aus einer Studie, die auf der Computer-Human Interaction Conference in Hawaii vorgestellt wurde. Im Rahmen der Untersuchung wurden ChatGPT 517 Programmierfragen aus Stack Overflow, einer beliebten Plattform für Programmierer, vorgelegt. Die Ergebnisse waren ein zweischneidiges Schwert. Während ein erheblicher Teil (52 %) der Antworten Fehler enthielt, stellte die Studie auch fest, dass ChatGPT in Bezug auf Vollständigkeit und klare Sprache hervorragte. Dies führte zu einem überraschenden Ergebnis: Trotz der Ungenauigkeiten bevorzugten 35 % der Studienteilnehmer die Antworten von ChatGPT. Noch beunruhigender ist die Tatsache, dass die an der Studie beteiligten Programmierer in fast 40 % der Fälle entscheidende Fehler in den Antworten von ChatGPT übersehen haben. Dies verdeutlicht ein erhebliches Risiko – scheinbar gut geschriebene Antworten könnten Benutzer dazu verleiten, falschen Informationen zu vertrauen. Die Studie unterstreicht die Notwendigkeit einer verbesserten Genauigkeit bei KI-Assistenten wie ChatGPT, insbesondere bei Aufgaben mit kritischen Auswirkungen wie Programmierung. Darüber hinaus betont die Forschung, wie wichtig es ist, dass sich die Benutzer des Potenzials für Fehlinformationen in KI-generierten Antworten bewusst sind. ChatGPT ist hier nicht allein, auch google AI leidet unter Halluzinationen Die neue AI Overview-Funktion, die Google kürzlich eingeführt hat, hat zu einer Flut von Fehlern geführt, die laut einem Bericht von Bloomberg den CEO von Alphabet, Sundar Pichai, vor Schreck erschauern lassen müssen. Auf die Frage, wie es sei, dass Käse von der Pizza rutsche, wurde einem Benutzer empfohlen, Klebstoff aufzutragen. Einem anderen Benutzer schlug der KI-Chatbot Berichten zufolge vor, eine Python sei ein Säugetier. Google hat erklärt, dass es seinen KI-Suchdienst mit jedem neuen Bericht über eine Halluzination verfeinert. Ein Google-Sprecher sagte gegenüber The Verge, dass Fehler bei „im Allgemeinen sehr ungewöhnlichen Anfragen auftreten und nicht repräsentativ für die Erfahrungen der meisten Menschen sind“.
Siehe auch  Siri to AppleCare, Mark Gurman verrät, wo Apple seine ChatGPT-ähnliche App, genannt Apple GPT, einsetzen könnte

[ad_2]

5/5 - (214 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein