Es scheint, dass die Befürchtung, dass chatgpt „die Welt erobern und alle Menschen arbeitslos machen“ wird, zumindest vorübergehend als irrelevant angesehen werden kann.

Fotoquelle

Wissenschaftler der Universitäten Stanford und Kalifornien haben die Leistung der Basismodelle GPT-3.5 und GPT-4 sorgfältig untersucht und festgestellt, dass die KI in den letzten Monaten erheblich nachgelassen hat.

Wie vom Portal vermerkt iXBTDem Bot wurden verschiedene Fragen gestellt und die Richtigkeit der Antworten bewertet. Außerdem ging es nicht um irgendwelche abstrakten Dinge, sondern um ganz konkrete. Beispielsweise musste die KI beantworten, ob die Zahl 17.077 eine Primzahl ist. Um den Prozess des „Denkens“ von KI besser zu verstehen und gleichzeitig das Ergebnis zu verbessern, wurde der Chatbot gebeten, seine Berechnungen Schritt für Schritt zu beschreiben. Normalerweise reagiert die KI in diesem Modus korrekt.

Dies hat jedoch nicht geholfen. Gab das GPT-4-Modell im März noch in 97,6 % der Fälle die richtige Antwort, so sank die Zahl im Juni … auf 2,4 %! Das heißt, fast nie konnte der Chatbot die Frage nicht richtig beantworten. Im Fall von GPT-3.5 stieg der Indikator dagegen von 7,4 % auf 86,8 %.

Auch das Schreiben und Formatieren von ChatGPT-Code ist viel schlechter als zu Beginn dieses Jahres. Und im Allgemeinen sei er „weniger bereitwillig auf die notwendigen Anfragen eingegangen“ und habe oft Fehler gemacht.

Übrigens haben sich Nutzer in den letzten Wochen auch über den Rückgang der „geistigen Fähigkeiten“ von ChatGPT beschwert. Gleichzeitig ist noch nicht klar, warum dies passiert ist und ob OpenAI etwas unternehmen wird.

Was die Stanford-Forscher betrifft, wissen sie nicht genau, was der Grund dafür ist, aber es gibt Hinweise darauf, dass es an den Menschen liegt, mit denen er „kommuniziert“ und sich selbst studiert.

Siehe auch  Nach der ChatGPT-Störung entlässt Stack Overflow 28 Prozent der Mitarbeiter – Ars Technica
⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein