OpenAI, ein US-Unternehmen, hat die Regeln für die Nutzung seines KI-Chatbots chatgpt aktualisiert und eine explizite Beschränkung der Nutzung seiner Technologie für militärische Zwecke, wie bereits erwähnt, aufgehoben Veröffentlichung The Intercept, berichtet Bizmedia.kz.
Bis zum 10. Januar verbot die alte Version der OpenAI-Richtlinien den Einsatz von KI für „Aktivitäten, bei denen ein hohes Risiko körperlicher Schäden besteht“, darunter „Waffenentwicklung“ und „militärische Aktivitäten“. Diese Einschränkung schloss die Nutzung von ChatGPT durch das Militär und andere paramilitärische Regierungsorganisationen aus.
In der aktualisierten Fassung der Regeln wurden die Beschränkungen jedoch gelockert. Es ist jetzt verboten, OpenAI-Technologien zu verwenden, um Schaden anzurichten, einschließlich der Herstellung oder des Einsatzes von Waffen, aber das Verbot der militärischen und militärischen Nutzung wurde aufgehoben. Vertreter von OpenAI erklärten, dass Änderungen an den Regeln für die Nutzung von ChatGPT vorgenommen wurden, um das Regelwerk und die Prinzipien zu vereinfachen.
Vertreter von OpenAI stellten klar, dass „jede Nutzung unserer Technologien, einschließlich militärischer, für“[разработки] oder [использования] Waffen, [причинения вреда] andere Leute bzw [уничтожения] Eigentum“ bzw [участие] Unbefugte Aktivitäten, die die Sicherheit eines Dienstes oder Systems gefährden, sind verboten.“
Von der Veröffentlichung befragte Experten stellen fest, dass OpenAI dem Pentagon und der amerikanischen Geheimdienstgemeinschaft offenbar auf halbem Weg entgegenkommt.
„Es scheint, dass die neue ChatGPT-Richtlinie versucht, Assoziationen mit Militärverträgen und Kampfeinsätzen zu vermeiden, mit besonderem Schwerpunkt auf Waffen“, sagte Lucy Suchman, Professorin an der Lancaster University und Mitglied des International Robotic Weapons Control Committee.
Experten zufolge wird ChatGPT, auch wenn es nicht direkt an Kampfeinsätzen beteiligt ist, mit seiner Arbeit dem Militär helfen, Probleme im Zusammenhang mit Militäreinsätzen und der Anwendung von Gewalt zu lösen.