In einem bedeutenden politischen Wandel hat OpenAI unter der Führung von Sam Altman die Tür für Anwendungen seiner KI-Technologien für Militär- und Kriegszwecke geöffnet. Die Änderung beinhaltet die Streichung der Formulierung, die den Einsatz der OpenAI-Technologie für militärische Zwecke ausdrücklich verbietet, aus den Nutzungsrichtlinien, wie The Intercept berichtet.
Dem Bericht zufolge begründete OpenAI die Überarbeitung mit dem Ziel, eine Reihe universeller Prinzipien festzulegen, die leicht zu merken und anzuwenden sind. Der Unternehmenssprecher wurde mit den Worten zitiert: „Unser Ziel war es, eine Reihe universeller Prinzipien zu schaffen, die sowohl leicht zu merken als auch anzuwenden sind, insbesondere da unsere Tools mittlerweile weltweit von alltäglichen Benutzern verwendet werden, die nun auch GPTs erstellen können.“ Der Sprecher betonte außerdem die breite Anwendbarkeit von Grundsätzen wie „Füge anderen keinen Schaden zu“ in verschiedenen Kontexten und nannte in der Richtlinie ausdrücklich Waffen und die Schädigung anderer als klare Beispiele.
Die tatsächlichen Folgen dieser politischen Anpassung bleiben jedoch unklar. Der Bericht hob die potenzielle Beteiligung großer Sprachmodelle (LLMs) wie chatgpt an sogenannten „killing-adjacent-tasks“ hervor, etwa dem Schreiben von Code oder der Verarbeitung von Beschaffungsvorgängen. TechCrunch stellte fest, dass die Plattformen von OpenAI für Armeeingenieure von großem Nutzen sein könnten, die jahrzehntelange Dokumentation zur Wasserinfrastruktur einer Region zusammenfassen möchten.
Während OpenAI seine Haltung zur militärischen Nutzung abgeschwächt hat, hält es an einem Verbot von KI-Anwendungen für die Waffenentwicklung fest. Das Gleichgewicht zwischen der Ermöglichung militärischer Aufgaben und der Verhinderung des Einsatzes von Waffen bleibt ein Schwerpunkt in der sich entwickelnden Landschaft der KI-Technologieanwendungen.