OpenAI implementiert Updates an seinem chatgpt-Chatbot, um Benutzern mehr Kontrolle und konsistente Antworten zu bieten. Benutzer können jetzt Anweisungen anpassen, um den Chatbot dazu zu bringen, förmlich zu antworten, Wortzahlbeschränkungen einzuhalten, Meinungen zu äußern oder zu bestimmten Themen neutral zu bleiben.

Unterdessen hat Dave Willner, Leiter für Vertrauen und Sicherheit bei OpenAI, seinen Rücktritt aufgrund persönlicher Konflikte und der intensiven Entwicklungsphase des Unternehmens angekündigt. Mira Murati wird eine vorübergehende Rolle bei der Leitung des Teams übernehmen, während OpenAI aktiv nach einem technisch versierten Leiter sucht, um die sichere Nutzung und Skalierbarkeit seiner Technologie zu gewährleisten.

Der Chatbot von OpenAI hat die Aufmerksamkeit der Federal Trade Commission auf sich gezogen und das Unternehmen dazu veranlasst, eine umfassende Dokumentation zu seinen KI-Schutzmaßnahmen bereitzustellen. CEO Sam Altman möchte OpenAI als Vordenker im Bereich der KI-Regulierung etablieren und das Unternehmen dazu veranlassen, der Verfeinerung seiner bestehenden KI-Modelle Vorrang zu geben, anstatt neue Entwicklungen zu verfolgen. Das Unternehmen hat die Unterstützung für die Sprachmodelle GPT-3.5 und GPT-4 bis mindestens 13. Juni 2023 verlängert.

Eine kürzlich von Forschern aus Stanford und UC Berkeley durchgeführte Studie ergab einen Rückgang der Leistung von ChatGPT bei bestimmten Aufgaben, wie etwa Mathematik und Codierung, im Vergleich zu früheren Versionen. OpenAI hat diese Erkenntnisse zur Kenntnis genommen und sein Engagement zum Ausdruck gebracht, Entwicklern mehr Transparenz hinsichtlich Modelländerungen und -aktualisierungen zu bieten.

OpenAI führt aktiv Verbesserungen durch, um die sachliche Genauigkeit und das Ablehnungsverhalten von ChatGPT zu verbessern. Die Studie ergab, dass der Chatbot immer noch gelegentlich auf schädliche Aufforderungen reagiert, was die Notwendigkeit eines Vertrauens- und Sicherheitsmanagers unterstreicht, der auf diese Bedenken eingeht. OpenAI wird seine Bemühungen fortsetzen, Stabilität, Sichtbarkeit und verantwortungsvolle Nutzung seines Sprachmodells sicherzustellen.

Siehe auch  OpenAI antwortet auf die New York Times, die ihr vorwirft, ihre Artikel zum Training ihrer KI genutzt zu haben
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein