OpenAI hat Formulierungen aus seinen Nutzungsbedingungen entfernt, die den Einsatz seiner Technologie für „Militär- und Kriegsführung“ untersagten.
Bis zum 10. Januar verbot die Seite mit den Nutzungsrichtlinien des Unternehmens „Aktivitäten, die ein hohes Risiko für körperliche Schäden bergen, darunter insbesondere „Waffenentwicklung“ und „Militär und Kriegsführung“. chatgpt/“ rel=“noopener“ target=“_blank“>Die Intercept-Notizen.
Die aktualisierte Richtlinie Stattdessen verbietet es die „Nutzung unseres Dienstes, um sich selbst oder anderen Schaden zuzufügen“ sowie die Nutzung der Technologie zur „Entwicklung oder Nutzung von Waffen“, geht jedoch nicht so weit, „Militär und Kriegsführung“ zu verbieten.
In einer Erklärung gegenüber The Intercept stellte OpenAI fest, dass die Sprachänderung vorgenommen wurde, um die Regeln des Unternehmens lesbarer und klarer zu machen. Konkret stellte das Unternehmen fest, dass eine Aussage wie „Tu anderen keinen Schaden zu“ zwar weit gefasst, die Menschen sie aber auch leicht verstehen und in verschiedenen Kontexten anwenden können.
Die spezifische Sprache der neuen Universalpolitik lautet:
Nutzen Sie unsere Dienste nicht, um sich selbst oder anderen Schaden zuzufügen – nutzen Sie unsere Dienste beispielsweise nicht, um Selbstmord oder Selbstverletzung zu fördern, Waffen zu entwickeln oder zu verwenden, andere zu verletzen oder Eigentum zu zerstören oder sich an unbefugten Aktivitäten zu beteiligen, die die Sicherheit von verletzen jeder Dienst oder jedes System.
Während dies sicherlich den Verzicht auf den Einsatz der Technologie zur Kriegsführung umfassen kann, kann die neue Formulierung auch in kleineren Kontexten gelten.
Laut The Intercept lehnte es ein OpenAI-Sprecher ab, klarzustellen, ob die neue Terminologie „Anderen schaden“ auch eine militärische Nutzung über die Waffenentwicklung hinaus einschließt. Daher ist es möglich, dass die Änderung zwar einige Anwendungen der Technologie verhindert hat, aber möglicherweise Möglichkeiten für andere eröffnet hat.