Diese Woche hat OpenAI Formulierungen aus seiner Richtlinie entfernt, die den Einsatz seiner Technologien, insbesondere chatgpt, für militärische Zwecke ausdrücklich verbieten.

Die Überarbeitung der OpenAI-Technologienutzungsrichtlinie wurde angekündigt. schreibt Der Abfang. Nach dem 10. Januar wurde das Verbot von „Aktivitäten, bei denen ein hohes Risiko für körperliche Schäden besteht, einschließlich, aber nicht beschränkt auf „Waffenentwicklung“ und „militärische Aktivitäten“, durch ein Verbot ersetzt, „unseren Dienst zu nutzen, um sich selbst Schaden zuzufügen“. oder andere“ und als Beispiel „Entwicklung oder Einsatz von Waffen“ angeführt, das allgemeine Verbot des „militärischen und kampfbezogenen“ Einsatzes ist jedoch verschwunden.

Unser Ziel war es, eine Reihe universeller Prinzipien zu schaffen, die leicht zu merken und anzuwenden sind, insbesondere da unsere Tools mittlerweile auf der ganzen Welt von alltäglichen Benutzern verwendet werden, die nun auch GPTs erstellen können. Ein Grundsatz wie „Anderen keinen Schaden zufügen“ ist weit gefasst, aber leicht verständlich und in vielen Zusammenhängen relevant. Darüber hinaus haben wir als prominente Beispiele ausdrücklich Waffen und Verletzungen anderer genannt“, sagte OpenAI-Sprecher Nico Felix in einer E-Mail an The Intercept.

Auf die Frage, ob das vage „Schadens“-Verbot jegliche militärische Nutzung abdeckt, schrieb Felix, dass „jede Nutzung unserer Technologie, auch durch das Militär, für“[разработки] oder [использования] Waffen, [ранения] andere bzw [уничтожение] Eigentum bzw [участвовать] Unerlaubte Aktivitäten, die die Sicherheit eines Dienstes oder Systems gefährden, sind verboten.“

Heidi Hlaaf, technische Direktorin beim Cybersicherheitsunternehmen Trail of Bits und Expertin für maschinelles Lernen und autonome Systemsicherheit, fügte hinzu, dass die neue Richtlinie offenbar den Schwerpunkt auf Legalität gegenüber Sicherheit legt. „Es gibt einen klaren Unterschied zwischen den beiden Richtlinien, da in der ersten eindeutig festgelegt ist, dass die Entwicklung von Waffen sowie Feindseligkeiten und Feindseligkeiten verboten sind, während in der zweiten die Flexibilität und die Einhaltung des Gesetzes im Vordergrund stehen“, sagte sie und betonte, dass die Entwicklung und Implementierung von Waffen damit verbunden sei Militäreinsätze sind in unterschiedlichem Maße legal.

Siehe auch  Die FluidMemory-Plattform verwendet ChatGPT zum Aufnehmen und Analysieren von Informationen – GrepBeat

Eine Überprüfung der von OpenAI vorgeschlagenen benutzerdefinierten ChatGPT-basierten Bots zeigt, dass US-Militärangehörige die Technologie bereits nutzen, um den Dokumentenfluss zu beschleunigen.

Ergebnisse des Jahres in der ukrainischen IT… und nicht nur

5/5 - (430 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.