<a href=chatgpt ist faul geworden – Ermittlungen laufen“ width=“1000″ height=“667″ srcset=“https://techreport.com/wp-content/uploads/2023/12/jonathan-kemper-MMUzS5Qzuus-unsplash-2-300×200.jpg 300w, https://techreport.com/wp-content/uploads/2023/12/jonathan-kemper-MMUzS5Qzuus-unsplash-2-1200×800.jpg 1200w, https://techreport.com/wp-content/uploads/2023/12/jonathan-kemper-MMUzS5Qzuus-unsplash-2-150×100.jpg 150w, https://techreport.com/wp-content/uploads/2023/12/jonathan-kemper-MMUzS5Qzuus-unsplash-2-768×512.jpg 768w, https://techreport.com/wp-content/uploads/2023/12/jonathan-kemper-MMUzS5Qzuus-unsplash-2-1536×1024.jpg 1536w, https://techreport.com/wp-content/uploads/2023/12/jonathan-kemper-MMUzS5Qzuus-unsplash-2-scaled.jpg 2048w“ data-lazy-sizes=“(max-width: 1000px) 100vw, 1000px“ src=“https://techreport.com/wp-content/uploads/2023/12/jonathan-kemper-MMUzS5Qzuus-unsplash-2-300×200.jpg“/>

Mehrere Benutzer haben sich darüber beschwert, dass das neueste ChatGPT-Modell (ChatGPT 4) weniger nützlich geworden ist.

Im Entwicklerforum von openAI und auf Reddit haben sich Leute darüber beschwert, dass ChatGPT sich weigert, den Anforderungen nachzukommen oder keine detaillierten Antworten auf Anfragen wiedergibt. In bestimmten Fällen wurde dem Benutzer mitgeteilt, dass er diese Aufgabe selbst erledigen kann und keine Notwendigkeit für KI besteht.

Benutzer spekulieren, dass OpenAI dies absichtlich tut, um den Ressourcenverbrauch für die Ausführung von KI-Modellen einzudämmen. Als Referenz: Ein KI-generiertes Bild benötigt so viel Strom wie das Aufladen Ihres Smartphones.

Antwort von OpenAI

Diese Beschwerden wurden von OpenAI zur Kenntnis genommen und die Untersuchungen sind im Gange. Das Unternehmen ging in einem Tweet auf die Bedenken ein und versicherte den Benutzern, dass das Modell seit dem 11. November nicht geändert wurde und der Grund, warum sich die KI so verhält, noch unbekannt sei.

Wir sind stets bestrebt, unsere Modelle in Millionen von Anwendungsfällen leistungsfähiger und nützlicher für alle zu machen. Bitte lasst uns also weiterhin Feedback geben.ChatGPTapp

OpenAI erklärte über sein @ChatGPTapp X-Handle, dass das Training von KI-Modellen kein „sauberer industrieller Prozess“ sei. Dieselben Datensätze sind in der Lage, KI-Modelle mit völlig unterschiedlichen Persönlichkeiten, Leistungen, Schreibstilen und politischen Vorurteilen zu erstellen.

Vor der Veröffentlichung eines neuen KI-Modells wird es gründlich anhand von Offline-Metriken sowie Online-A/B-Tests getestet. Diese Ergebnisse werden dann ausgewertet, um zu entscheiden, ob das Modell den Benutzern Verbesserungen im Vergleich zu vorherigen Modellen bietet.

Siehe auch  Lokale CIOs nehmen zu ChatGPT eine abwartende Haltung ein

Der jüngste OpenAI-Umbruch

Die Probleme scheinen bei OpenAI nicht nachzulassen. Eine aktuelle Studie ergab, dass ChatGPT anfällig für einen „Divergenzangriff“ ist, bei dem Benutzer knifflige Eingabeaufforderungen verwenden könnten, um Trainingsdaten und persönliche Informationen aus dem KI-Modell zu extrahieren. Dadurch sind die privaten Daten von Millionen Nutzern gefährdet.

Zuvor hatte ein großer DDoS-Angriff ChatGPT für mehrere Benutzer unbrauchbar gemacht. Bis zu 24 Stunden lang wurde Benutzern die Meldung „ChatGPT ist derzeit ausgelastet“ angezeigt, wenn sie versuchten, auf die Plattform zuzugreifen.

Kurz darauf wurde Sam Altman auf mysteriöse Weise als CEO von OpenAI abgesetzt, mit der Begründung, es fehle an „offenen Gesprächen“. Nach einer dramatischen Woche wurde er jedoch mit voller Unterstützung und Unterstützung von Microsoft wieder als CEO eingesetzt.

In jüngerer Zeit erwägt CMA, die britische Wettbewerbsaufsichtsbehörde, die Einleitung einer kartellrechtlichen Untersuchung der Partnerschaft von OpenAI mit Microsoft, da es sich dabei um eine Art virtuelle Fusion handelt.

Trotz all dieser Bedenken ist ein ins Stocken geratenes KI-Modell das Letzte, was OpenAI möchte. Es bleibt abzuwarten, ob dieses jüngste „faule“ Verhalten ein einmaliger Vorfall ist und wie der KI-Riese damit umgeht.

5/5 - (277 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein