[ad_1]
14.01.2024 12:27 MIGnews.com
chatgpt für militärische Zwecke zugelassen
Wie The Intercept feststellt, enthielt die Seite „Nutzungsrichtlinien“ von OpenAI bis zum 10. Januar 2024 ein ausdrückliches Verbot von „Aktivitäten, die ein hohes Risiko körperlicher Schäden bergen, einschließlich, aber nicht beschränkt auf „Waffenentwicklung“ und „militärische Aktivitäten“.
Dieses ausdrückliche Verbot der militärischen Nutzung scheint jede offizielle und äußerst gewinnbringende Nutzung durch das Verteidigungsministerium oder andere staatliche Militärs auszuschließen. Die neue Richtlinie behält das Verbot bei, „unsere Dienste nicht zu nutzen, um sich selbst oder anderen zu schaden“ und führt als Beispiel „die Entwicklung oder den Einsatz von Waffen“ an, aber das generelle Verbot der „militärischen und militärischen“ Nutzung ist weg.
OPENAI hat diese Woche stillschweigend Formulierungen, die den militärischen Einsatz seiner Technologie ausdrücklich verbieten, aus seinen Nutzungsrichtlinien entfernt, mit denen festgelegt werden soll, wie leistungsstarke und äußerst beliebte Tools wie ChatGPT verwendet werden können. Darüber schreibt ein Journalist Sam Biddle von The Intercept.
„Unser Ziel war es, eine Reihe universeller Prinzipien zu schaffen, die leicht zu merken und anzuwenden sind, insbesondere da unsere Tools mittlerweile auf der ganzen Welt von alltäglichen Benutzern verwendet werden, die nun auch GPTs erstellen können“, sagte OpenAI-Sprecher Nico Felix in einer E-Mail an The Intercept . „Ein Grundsatz wie „Anderen keinen Schaden zufügen“ ist weit gefasst, aber leicht verständlich und in vielen Zusammenhängen relevant. Darüber hinaus haben wir als markante Beispiele gezielt Waffen und Verletzungen anderer Personen angeführt.“
„Angesichts des Einsatzes künstlicher Intelligenzsysteme für Angriffe auf Zivilisten im Gazastreifen ist es eine bemerkenswerte Entscheidung, die Worte „Militär und Feindseligkeiten“ aus der akzeptablen Nutzungsrichtlinie von OpenAI zu streichen“, sagte Sarah Myers West, Geschäftsführerin von AI Now.
Während nichts, was OpenAI heute anbietet, dazu verwendet werden kann, jemanden direkt zu töten, sei es militärisch oder anderweitig (ChatGPT kann keine Drohne manövrieren oder Raketen abfeuern), ist jede Armee am Töten beteiligt oder behält zumindest die Fähigkeit zum Töten bei. Es gibt eine Vielzahl verwandter Aufgaben, die ein LLM wie ChatGPT ergänzen kann, beispielsweise das Schreiben von Code oder die Verarbeitung von Beschaffungen.
Experten, die die Richtlinienänderungen auf Anfrage von The Intercept überprüften, sagten, dass OpenAI offenbar stillschweigend seine Haltung gegenüber Geschäften mit dem Militär schwächt. „Ich könnte mir vorstellen, dass der Übergang von „Militär und Kriegsführung“ zu „Waffen“ Freiraum für OpenAI zur Unterstützung der operativen Infrastruktur lässt, solange die Anwendung nicht direkt mit der Waffenentwicklung im engeren Sinne zusammenhängt“, sagte Lucy Suchman, emeritierte Professorin für Anthropologie der Wissenschaft und Technologie an der Lancaster University.
„Sicherlich denke ich, dass die Idee, dass man zu Waffenplattformen beitragen kann, indem man sagt, dass man nicht an der Entwicklung oder dem Einsatz von Waffen beteiligt ist, unaufrichtig wäre und Waffen teilweise aus dem soziotechnischen System, einschließlich der Befehls- und Kontrollinfrastruktur, entfernen würde was es ist.“ Suchman, seit den 1970er Jahren Forscher auf dem Gebiet der künstlichen Intelligenz und Mitglied des International Robotic Weapons Control Committee, fügte hinzu: „Es erscheint plausibel, dass das neue Grundsatzdokument die Frage von Militärverträgen und Kampfeinsätzen vermeidet, indem es sich auf Waffen konzentriert.“
[ad_2]