Das Unternehmen hinter chatgpt hat in seinen Geschäftsbedingungen Formulierungen entfernt, die den Einsatz seiner Technologie der künstlichen Intelligenz für militärische Zwecke verbieten.
Die Nutzungsrichtlinie des KI-Unternehmens beinhaltete zunächst ein Verbot aller Aktivitäten, die ein hohes Risiko körperlicher Schäden mit sich bringen, darunter „Waffenentwicklung“ und „Militär und Kriegsführung“.
Dies schloss beispielsweise den Einsatz der KI-Technologie durch das US-Verteidigungsministerium oder ein anderes staatliches Militär aus.
Doch eine neue Aktualisierung der KI-Nutzungsrichtlinie des Unternehmens scheint die Sprache rund um dieses Verbot der militärischen Nutzung abzuschwächen.
Während die Richtlinienaktualisierung eine einstweilige Verfügung beibehält, „unseren Dienst nicht zu nutzen, um sich selbst oder anderen zu schaden“ und als Beispiel hierfür die Verwendung von KI zur „Entwicklung oder Nutzung von Waffen“ anführt, gilt das ursprüngliche generelle Verbot des Einsatzes für „Militär und Kriegsführung“. ist verschwunden, in einer Entwicklung, über die erstmals berichtet wurde Der Abfang.
Diese unangekündigte Änderung der KI-Nutzungsrichtlinie des Unternehmens ist Teil einer umfassenden Neufassung seiner Richtlinienseite, die nach Angaben des Unternehmens ein Versuch war, das Dokument lesbarer zu machen.
EU prüft, ob Microsofts Investition in OpenAI unter die Fusionsregeln fällt
„Wir haben unsere Nutzungsrichtlinien aktualisiert, um sie besser lesbar zu machen, und dienstspezifische Anleitungen hinzugefügt“, sagte OpenAI in einem Blogbeitrag.
Die aktualisierte Version besagt, dass die Software zur Maximierung von „Innovation und Kreativität“ eingesetzt werden soll, mit einem hohen Maß an Flexibilität, solange dies gesetzeskonform ist.
„Wir glauben, dass Sie die Flexibilität haben sollten, unsere Dienste nach eigenem Ermessen zu nutzen, solange Sie sich an die Gesetze halten und sich selbst oder anderen keinen Schaden zufügen“, heißt es in der aktualisierten Richtlinie.
Es bleibt derzeit unklar, welche realen Auswirkungen die Änderung der Politik haben könnte.
OpenAI reagierte nicht sofort Die Unabhängigen Bitte um Kommentar.
OpenAI scheint sich der Risiken bewusst zu sein, die sich aus der Nutzung seiner Technologie für militärische Zwecke ergeben können.
Eine von OpenAI-Forschern mitverfasste Studie aus dem Jahr 2022 weist auf die Risiken und potenziellen Schäden hin, die mit der Verwendung großer Sprachmodelle wie dem hinter ChatGPT für die Kriegsführung einhergehen.
Frühere Untersuchungen haben auch davor gewarnt, dass KI-Tools wie ChatGPT dazu verleitet werden können, Schadcode zu produzieren, der für Cyberangriffe verwendet werden könnte.
„Angesichts des Einsatzes von KI-Systemen bei der gezielten Bekämpfung von Zivilisten in Gaza ist es ein bemerkenswerter Moment, die Entscheidung zu treffen, die Wörter ‚Militär und Kriegsführung‘ aus den zulässigen Nutzungsrichtlinien von OpenAI zu streichen“, sagte Sarah Meyers, geschäftsführende Direktorin des AI Now Institute, Gepostet auf X.