chatgpt werde in Zukunft „viel weniger faul“ sein, erklärte OpenAI-CEO Sam Altman auf .

Das Labor für künstliche Intelligenz gab im Dezember bekannt, dass sich die Leistung des großen Sprachmodells verschlechtert hatte. Nach einem Update war es praktisch „faul“ geworden.

Altmann erzählte seinen Followern auf X dass „GPT-4 bei seinen Neujahrsvorsätzen einen langsamen Start hatte“, nachdem Aktualisierungen zur Behebung des Problems nicht sofort zu Verbesserungen führten, sondern hinzufügte, dass es „jetzt viel weniger faul sein sollte!“

Warum war GPT-4 faul?

Mehr sehen

KI, insbesondere große Sprachmodelle wie ChatGPT, sind besonders gut darin, langweilige und sich wiederholende Aufgaben zu automatisieren. Wir verwenden sie zur Beantwortung alltäglicher bis komplexer Fragen und verlassen uns darauf, dass sie uns – meistens – eine nützliche Antwort geben.

Letztes Jahr machten Berichte die Runde, dass ChatGPT faul geworden sei. Insofern reagierte es nicht mehr so ​​vollständig wie früher, indem es Ausschnitte anstelle vollständiger Funktionen lieferte oder erklärte, wie man ein Gedicht schreibt, anstatt einfach nur das Gedicht zu schreiben.

Ein Teil davon war wahrscheinlich eine Reaktion auf Aktualisierungen des zugrunde liegenden KI-Modells, das darauf abzielt, Missbrauch zu bekämpfen und Schutzmaßnahmen gegen illegale Anwendungsfälle hinzuzufügen. Es gab auch Bemühungen von OpenAI, die Kosten für den Betrieb des teuren Modells zu senken.

Was hat OpenAI getan, um das Problem zu beheben?

Wie OpenAI das Faulheitsproblem angegangen ist, ist nicht offensichtlich, aber seit der Weihnachtszeit wurden Aktualisierungen des zugrunde liegenden Modells veröffentlicht. Dazu gehören neue Versionen des Turbo-Modells, die darauf ausgelegt sind, schnellere Reaktionen ohne Einbußen bei der Qualität zu ermöglichen.

Siehe auch  CryptoRom-Betrüger fügen KI-Chat-Tools wie ChatGPT und Fake hinzu

OpenAI sagt, dass der neue GPT-4-Turbo Aufgaben wie die Codegenerierung gründlicher erledigen kann und ein neuer GPT-3.5-Turbo die Gesamtkosten für die Erledigung von Aufgaben oder die Beantwortung von Anfragen senkt.

Es gab einige Spekulationen darüber, dass die KI-Modelle für die Weihnachtszeit „abgeschaltet“ werden, weshalb sie langsamer und weniger reaktionsfähig werden. OpenAI hat dies bestritten und im Januar nicht sofort zur Normalität zurückgekehrt.

Altmans Witz, dass ChatGPT einen „schleppenden Start mit seinen Neujahrsvorsätzen“ hatte, war eine lustige Art auszudrücken, dass die Updates immer noch durchsickerten. Schließlich reagiert die KI lediglich auf unsere Eingaben, arbeitet auf der Grundlage vorab trainierter Daten und ist noch nicht empfindungsfähig genug, um eigene Entscheidungen zu treffen!

Mehr von Tom's Guide

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein