Sam Altman

Sam Altman, CEO von OpenAI. David Paul Morris/Bloomberg über Getty Images

Wenn Sie chatgpt in letzter Zeit gebeten haben, etwas zu tun, und es abgelehnt hat, oder frech hat dich umgehauen, du bist nicht allein.

Auf X im vergangenen Dezember gab ChatGPT zu, dass die Leute befürchteten, es sei zu faul geworden. Letzten Dezember, Altman schrieb dass „wir das Modell seit dem 11. November nicht mehr aktualisiert haben, und dies war sicherlich nicht beabsichtigt“, sehr zur Erleichterung von Milliarden Arbeiter (und Studenten), die zu uns gekommen sind verlassen auf der Software zum Schreiben von E-Mails und Code.

Laut Sam Altman, dem Milliardärs-CEO von OpenAI, hatte ChatGPT einen schleppenden Start in seine Neujahrsvorsätze, da das Unternehmen immer mehr schlechte Angewohnheiten an den Tag legt, von der Tendenz zur Faulheit bis hin zur Beharrlichkeit, Dinge nicht tun zu können, die es selbst tun kann Ich bin einfach nur ein bisschen frech. Als Altman anerkannt gestern auf X, zusammen mit der Nachricht eines Software-Updates, sollte der ChatGPT-Bot „jetzt viel weniger faul sein“.

Aber wenn man sich Altmans Kommentare seit Monaten ansieht, ist es schwer, die Persönlichkeit des Bots (oder die Illusionen davon) zu unterdrücken. „Modellverhalten kann unvorhersehbar sein“, schrieb er in einem Dezember-Beitrag. Er fügte hinzu, dass das Training von Chat-Modellen möglicherweise eher dem Training von Welpen ähnelt – sie reagieren nicht immer gleich.

„Verschiedene Trainingsläufe, selbst wenn dieselben Datensätze verwendet werden, können zu Modellen führen, die sich deutlich in Persönlichkeit, Schreibstil, Ablehnungsverhalten, Bewertungsleistung und sogar politischer Voreingenommenheit unterscheiden“, sagt Altman schrieb.

OpenAI antwortete nicht auf eine Anfrage nach einem Kommentar.

Siehe auch  Leben mit einem KI-Assistenten: Eine Woche mit ChatGPT

Das sich ändernde Verhalten von ChatGPT

Gegen Ende des letzten Jahres häuften sich Beschwerden gegen die Konversations-KI-Plattform, da Benutzer Antworten meldeten, die nicht ihren Anfragen entsprachen. Auf Reddit beschrieben Dutzende Benutzer das Ungehorsam des Bots auf Aufgaben, wie zum Beispiel die Aufforderung, eine kurze Zusammenfassung zu einem Thema zu schreiben und stattdessen einen Aufsatz zu erhalten. Ein Reddit-Benutzer schrieb: „Und wenn ich sage: ‚Viel kürzer, maximal 3–4 Sätze‘, erhalte ich einen Absatz mit zehn Sätzen.“

Schon früher im letzten Jahr tauchten Warnzeichen auf, insbesondere in Stanford/Berkeley Studietreffend benannt „Wie verändert sich das Verhalten von ChatGPT im Laufe der Zeit??“ Es stellte sich heraus, dass die KI-Software bei bestimmten Aufgaben Drifts oder starke Schwankungen in der Genauigkeit aufwies und dass ihre Fähigkeit, mathematische Probleme zu lösen und Primzahlen zu identifizieren, bereits nach drei Monaten von etwa 97 % auf unter 3 % Genauigkeit gesunken war.

ChatGPT-Benutzer haben andere Probleme beschrieben, wie etwa die Aussage des Bots, dass er nach dem letzten Update im Jahr 2023 nicht mehr im Internet surfen kann. Als der Benutzer ihn dazu aufforderte, indem er „Ja, Sie können“ eingab, schien sich der Bot daran zu erinnern, dass er im Internet surfen konnte. In Reddit-Diskussionen geht es darum, ob die Leute denken, dass ältere Versionen der Software besser funktionierten, während andere meinen, dass der Hype um die Neuheit der Software den Eindruck erweckt, sie sei früher taktvoller gewesen als heute.

Ein Entwickler, Rob Lynch, gestellt dass der Chatbot den Winter über langsamer angegangen sein könnte, möglicherweise weil er erwartet hat, dass seine menschlichen Gegenstücke während der Feiertage ebenfalls langsamer werden, oder einfach nur ein weiterer unerklärlicher Fehler. Lynchen Gepostet auf X dass er Tests mit dem Bot durchgeführt hatte und dieser in kürzeren Antworten antwortete, wenn er glaubte, es sei Dezember und nicht Mai.

Siehe auch  Elon Musks KI-Programm, sein ChatGPT-Konkurrent

Seit ChatGPT's Debüt für die Öffentlichkeit im November 2022 hat es sich angesammelt eine Schätzung von über 1,7 Milliarden Nutzern. Die Leute waren Verwendung der Software um E-Mails, Briefe und Berichte zu schreiben, und die technisch versierteren Personen verlassen sich darauf, Fehler zu beheben, Codes zu schreiben und Analysen durchzuführen.

Arbeiter haben ihre Arbeitskräfte mit der Software gestärkt und behaupten, dass sie ihnen hilft.“arbeite schlauer, nicht härter.

Besorgniserregend, Studien haben die geschlechtsspezifische Voreingenommenheit des Chatbots durch die Bewertung bestimmter Karrieren und Handlungen aufgedeckt, indem sie Männer Ärzten und dem Weg zur Arbeit zugeordnet haben, Frauen hingegen Krankenschwestern und Kochen.

In Bereichen wie Kundenservice und Gesundheitswesen, Branchenexperten warnen davor, dass eine übermäßige Abhängigkeit von ChatGPT einen Verlust der menschlichen Verbindung und des Einfühlungsvermögens bedeuten könnte, die in einigen Bereichen noch gefördert werden müssen. Wenn Sie jemals ein 40-minütiges Gespräch mit einem Kundendienstroboter geführt haben, wissen Sie es bereits. Aber jetzt müssen wir abwarten, ob das Faulheitsproblem des Welpen verschwindet.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein