Die OpenAI-Nutzungsrichtlinie legt fest, wie Benutzer KI-Tools wie chatgpt und DALL·E nutzen können. Letzte Woche wurde jedoch stillschweigend der Wortlaut für militärische Zwecke aus der Nutzungsrichtlinie gestrichen, der möglicherweise die Anbindung militärischer KI-Anwendungen an OpenAI ermöglicht Technologie.
Die OpenAI-Nutzungsrichtlinie verbot ursprünglich „Aktivitäten mit einem hohen Risiko körperlicher Schäden“, insbesondere „Waffenentwicklung“, „Militär und Kriegsführung“, und die klare Formulierung, die militärische Anwendungen verbietet, schien jede offizielle Möglichkeit auszuschließen. Die neue Richtlinie behält jedoch das Verbot bei, „unsere Dienste nicht zu nutzen, um sich selbst oder anderen zu schaden“ und nennt als Beispiel „die Entwicklung oder den Einsatz von Waffen“, das Verbot von „Militär und Krieg“ wurde jedoch gestrichen.
The Intercept, eine amerikanische Website für investigative Nachrichten, war die erste, die diese Änderung in OpenAI bemerkte. Die neue Richtlinienseite wurde offenbar am 10. Januar aktualisiert.
Diese unangekündigte Überarbeitung der Nutzungsrichtlinie, erklärte OpenAI, soll den Richtlinieninhalt klarer und leichter lesbar machen, einschließlich vieler Sprach- und Formatänderungen. „Unser Ziel ist es, einen gemeinsamen Satz von Prinzipien zu schaffen, der leicht zu merken und anzuwenden ist, insbesondere jetzt, da unsere Tools von Benutzern auf der ganzen Welt verwendet werden und sie nun GPTs erstellen können“, sagte OpenAI-Sprecher Niko Felix in einer Erklärung gegenüber The Abfangen.
„Unsere Politik erlaubt es nicht, Werkzeuge zu verwenden, um anderen zu schaden, Waffen zu entwickeln, Kommunikation zu überwachen oder Eigentum zu zerstören“, schrieb Niko Felix in einer Erklärung, stellte jedoch nicht klar, ob das „Schadens“-Verbot alle militärischen Zwecke abdeckt.
„OpenAI ist sich der Risiken und Gefahren bewusst, die durch den Einsatz seiner Technologie und Dienste in militärischen Anwendungen entstehen können“, sagte Heidy Khlaaf, technische Leiterin beim Cybersicherheitsunternehmen Trail of Bits und Expertin für maschinelles Lernen und Sicherheit autonomer Systeme, gegenüber The Intercept unter Berufung auf ein Treffen zwischen ihr und OpenAI im Jahr 2022. Forscher haben gemeinsam ein Papier verfasst, in dem sie auf mögliche Risiken einer militärischen Nutzung hinweisen. „Es gibt einen klaren Unterschied zwischen der vorherigen und der späteren Politik. Erstere verbietet eindeutig die Entwicklung von Waffen, Militär und Krieg, während letztere Flexibilität und Gesetzestreue betont.“ Sie glaubt, dass die neue Politik eher auf Legalität als auf Sicherheit zu setzen scheint.
„Die Entwicklung von Waffen und die Durchführung militärischer und kriegsbezogener Aktivitäten ist in unterschiedlichem Maße legal und hat potenziell enorme Auswirkungen auf die KI-Sicherheit. Angesichts der bekannten Vorurteile, Halluzinationen und der insgesamt mangelnden Genauigkeit großer Sprachmodelle wird ihr Einsatz im Militärbereich von Nutzen sein.“ „Unpräzises und voreingenommenes Handeln kann Konflikte verschärfen und zu Opfern unter der Zivilbevölkerung führen“, sagte Heidy Khlaaf.
Obwohl alle derzeit von OpenAI bereitgestellten Dienste nicht direkt Menschen töten können und selbst ChatGPT keine Drohnen steuern oder Raketen abfeuern kann, kann das große Sprachmodell hinter ChatGPT viele militärbezogene Verarbeitungsfunktionen verbessern, beispielsweise das Schreiben von Programmcodes oder die Verarbeitung komplexer Anweisungen. Und einige US-amerikanische Militärangehörige importieren sie nach und nach zu Hilfszwecken, und der Endzweck kann tödlich sein.
Während sich Produkte weiterentwickeln, kommt es in der Technologiebranche häufig zu inoffiziellen Änderungen der Richtlinienformulierung, und OpenAI stellt da keine Ausnahme dar. Allerdings löste ChatGPT letztes Jahr einen weltweiten KI-Trend aus, der jede Bewegung von OpenAI in den Mittelpunkt der Aufmerksamkeit von außen rückte. Darunter auch KI Die Sicherheit ist noch nicht geklärt. Gemäß den Vorschriften sind die Auswirkungen der überarbeiteten Formulierung der OpenAI-Nutzungsrichtlinien auf militärische KI-Anwendungen zu beachten.
(Quelle des ersten Bildes:Unsplash)
Neue wissenschaftliche und technologische Erkenntnisse, die von Zeit zu Zeit aktualisiert werden