Die Teams von Sam Altman stünden unter Druck, das neue chatgpt-Modell schneller zu veröffentlichen. Um dem Zeitplan des Managements gerecht zu werden, beschleunigten Sicherheitsteams Berichten zufolge die Testprotokolle für GPT-4o.

Das ChatGPT-Logo // Quelle: ilgmyzin über Unsplash

Wurde der Start von OpenAIs GPT-4o überstürzt? Es ist via WindowsCentral dass wir erfahren haben, dass Sicherheitsteams kaum Zeit gehabt hätten, das neue Modell der künstlichen Intelligenz zu testen, das ChatGPT antreibt.

Es hat keinen Sinn zu rennen

Mehrere Quellen gaben an, dass das Management von OpenAI bei der Entwicklung seines Tools die Geschwindigkeit gegenüber der Genauigkeit bevorzugen würde, die erforderlich ist. Schlimmer noch, laut diesen Quellen: Das Sicherheitsteam von OpenAi wurde unter Druck gesetzt, das GPT-4o-Testprotokoll zu beschleunigen, um nicht vom GPT-4 Omni-Veröffentlichungsdatum im Mai abzuweichen. Diesen Quellen zufolge verschickte OpenAI Einladungen zur Feier der Produkteinführung, bevor die Sicherheitsteams überhaupt Tests durchführten:

Sie planten die Afterparty zum Start, bevor sie wussten, ob der Start sicher war.

Zu diesem Thema befragt, gibt OpenAI-Sprecherin Lindsey Held zu, dass der Start eine Stressquelle für die Sicherheitsteams darstellte, weist die Vorwürfe jedoch zurück. Es zeigt an, dass das Unternehmen „hat beim Sicherheitsprozess nicht gespart“. Eine von einem Vertreter des OpenAI Readiness Teams unterstützte Erklärung, aus der hervorgeht, dass das Unternehmen seinen regulatorischen Verpflichtungen nachgekommen ist. Allerdings räumt er ein, dass der Zeitplan eng war und präzisiert dies „OpenAI überdenkt jetzt die gesamte Art und Weise, wie wir Dinge tun, und der Omni-Ansatz war einfach nicht der beste Weg, dies zu tun.“ Schutzmaßnahmen sind notwendig, wenn wir wissen, dass KI bei bestimmten Aufgaben mit der gleichen Finesse wie ein Doktorand hervorragende Leistungen erbringen kann.

Siehe auch  ChatGPT und Predigten: Wie sollten Pfarrer KI einsetzen?

Sicherheit zuerst

Dies ist nicht das erste Mal, dass OpenAI aufgrund von Sicherheitsbedenken im Rampenlicht steht. Im vergangenen Mai erfuhren wir vom Ausscheiden zweier Führungskräfte aus dem Unternehmen, die darauf hinwiesen, dass das Unternehmen die Risiken, die künstliche Intelligenz mit sich bringen könnte, nicht ernst nimmt. Der ehemalige OpenAI-Chef und Mitbegründer Ilya Sutskever ist eine dieser Führungskräfte.

Er war der Leiter von „SuperAlignment“, der Abteilung, die vor ihrer Auflösung für die Steuerung künstlicher Intelligenz zuständig war. Inzwischen hat er das Unternehmen verlassen, um sein Unternehmen Super Safeintelligence (SSI) zu gründen. Ein Unternehmen, dessen eigentlicher Zweck auf Sicherheit rund um künstliche Intelligenz basiert.


Möchten Sie einer Gemeinschaft von Enthusiasten beitreten? Unser Discord heißt Sie willkommen, es ist ein Ort der gegenseitigen Hilfe und der Leidenschaft für Technologie.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein