Die Teams von Sam Altman stünden unter Druck, das neue chatgpt-Modell schneller zu veröffentlichen. Um dem Zeitplan des Managements gerecht zu werden, beschleunigten Sicherheitsteams Berichten zufolge die Testprotokolle für GPT-4o.
Wurde der Start von OpenAIs GPT-4o überstürzt? Es ist via WindowsCentral dass wir erfahren haben, dass Sicherheitsteams kaum Zeit gehabt hätten, das neue Modell der künstlichen Intelligenz zu testen, das ChatGPT antreibt.
Es hat keinen Sinn zu rennen
Mehrere Quellen gaben an, dass das Management von OpenAI bei der Entwicklung seines Tools die Geschwindigkeit gegenüber der Genauigkeit bevorzugen würde, die erforderlich ist. Schlimmer noch, laut diesen Quellen: Das Sicherheitsteam von OpenAi wurde unter Druck gesetzt, das GPT-4o-Testprotokoll zu beschleunigen, um nicht vom GPT-4 Omni-Veröffentlichungsdatum im Mai abzuweichen. Diesen Quellen zufolge verschickte OpenAI Einladungen zur Feier der Produkteinführung, bevor die Sicherheitsteams überhaupt Tests durchführten:
Sie planten die Afterparty zum Start, bevor sie wussten, ob der Start sicher war.
Zu diesem Thema befragt, gibt OpenAI-Sprecherin Lindsey Held zu, dass der Start eine Stressquelle für die Sicherheitsteams darstellte, weist die Vorwürfe jedoch zurück. Es zeigt an, dass das Unternehmen „hat beim Sicherheitsprozess nicht gespart“. Eine von einem Vertreter des OpenAI Readiness Teams unterstützte Erklärung, aus der hervorgeht, dass das Unternehmen seinen regulatorischen Verpflichtungen nachgekommen ist. Allerdings räumt er ein, dass der Zeitplan eng war und präzisiert dies „OpenAI überdenkt jetzt die gesamte Art und Weise, wie wir Dinge tun, und der Omni-Ansatz war einfach nicht der beste Weg, dies zu tun.“ Schutzmaßnahmen sind notwendig, wenn wir wissen, dass KI bei bestimmten Aufgaben mit der gleichen Finesse wie ein Doktorand hervorragende Leistungen erbringen kann.
Sicherheit zuerst
Dies ist nicht das erste Mal, dass OpenAI aufgrund von Sicherheitsbedenken im Rampenlicht steht. Im vergangenen Mai erfuhren wir vom Ausscheiden zweier Führungskräfte aus dem Unternehmen, die darauf hinwiesen, dass das Unternehmen die Risiken, die künstliche Intelligenz mit sich bringen könnte, nicht ernst nimmt. Der ehemalige OpenAI-Chef und Mitbegründer Ilya Sutskever ist eine dieser Führungskräfte.
Er war der Leiter von „SuperAlignment“, der Abteilung, die vor ihrer Auflösung für die Steuerung künstlicher Intelligenz zuständig war. Inzwischen hat er das Unternehmen verlassen, um sein Unternehmen Super Safeintelligence (SSI) zu gründen. Ein Unternehmen, dessen eigentlicher Zweck auf Sicherheit rund um künstliche Intelligenz basiert.
Möchten Sie einer Gemeinschaft von Enthusiasten beitreten? Unser Discord heißt Sie willkommen, es ist ein Ort der gegenseitigen Hilfe und der Leidenschaft für Technologie.