Ausgabe von The Intercept chatgpt/“ target=“_blank“ rel=“noopener“>hat aufgepasst darauf, dass das Unternehmen OpenAI aus den Nutzungsbedingungen des von ihm entwickelten Chatbots mit künstlicher Intelligenz ChatGPT ein Verbot der Nutzung von Technologie für militärische Zwecke gestrichen hat. Die Formulierung ist allgemeiner geworden, jetzt geht es um die Nichtnutzung des neuronalen Netzes, um sich selbst oder anderen Schaden zuzufügen, einschließlich der Herstellung oder des Einsatzes von Waffen. So hob der Entwickler beispielsweise das Verbot des Einsatzes von KI zur Lösung von Problemen im Zusammenhang mit Kampfeinsätzen auf.
In der Veröffentlichung wird darauf hingewiesen, dass die Nutzungsbedingungen der OpenAI-Technologien zuletzt am 10. Januar aktualisiert wurden. Eine frühere Version des Dokuments, die in einem Webarchiv aufbewahrt wird, verbot die Verwendung von ChatGPT bei Aktivitäten, die mit einem hohen Risiko körperlicher Schäden verbunden sind, einschließlich, aber nicht beschränkt auf, Waffenentwicklung sowie „militärische Aktivitäten und Kriege“. Daher konnte der Chatbot nicht vom Verteidigungsministerium und anderen paramilitärischen Regierungsbehörden genutzt werden.
Die aktualisierten Nutzungsbedingungen von Technologien verbieten weiterhin die Nutzung des Dienstes, um sich selbst oder anderen zu schaden. Als Beispiel für solche Aktionen nennt das Dokument die Entwicklung oder den Einsatz von Waffen. Gleichzeitig wurde das vollständige Verbot des militärischen Einsatzes von Technologie aus den Nutzungsbedingungen gestrichen.
OpenAI begründete die Änderungen mit dem Wunsch, die Regeln für die Nutzung von Produkten zu vereinfachen, und betonte, dass die Formulierung „sich selbst oder anderen nicht schaden“ möglichst weit gefasst bleibt. Aber jetzt kann beispielsweise das Militär KI nutzen, um Probleme im Zusammenhang mit Kampfeinsätzen zu lösen.
„Details“, Yu.L. Foto: Depositphotos.com