OpenAI diese Woche stillschweigend eine Formulierung gestrichen, die den Einsatz seiner Technologie für militärische Zwecke ausdrücklich aus seiner Nutzungsrichtlinie verbietet, die vorschreiben soll, wie leistungsstarke und äußerst beliebte Tools wie chatgpt verwendet werden dürfen.
Bis zum 10. Januar gelten die „Nutzungsrichtlinien“ von OpenAI Seite beinhaltete ein Verbot von „Aktivitäten, die ein hohes Risiko körperlicher Schäden bergen, darunter insbesondere „Waffenentwicklung“ und „Militär und Kriegsführung“. Dieses klar formulierte Verbot militärischer Anwendungen würde scheinbar jede offizielle und äußerst lukrative Nutzung durch das Verteidigungsministerium oder ein anderes staatliches Militär ausschließen. Der neue Richtlinien behält eine einstweilige Verfügung bei, „unseren Dienst nicht zu nutzen, um sich selbst oder anderen zu schaden“ und nennt als Beispiel „Waffen entwickeln oder verwenden“, aber das generelle Verbot des Einsatzes „zu Militär- und Kriegszwecken“ ist verschwunden.
Die unangekündigte Schwärzung ist Teil einer umfassenden Neufassung der Richtlinienseite, die nach Angaben des Unternehmens das Dokument „klarer“ und „besser lesbar“ machen sollte und viele weitere wesentliche Sprach- und Formatierungsänderungen umfasst.
„Unser Ziel war es, eine Reihe universeller Prinzipien zu schaffen, die sowohl leicht zu merken als auch anzuwenden sind, insbesondere da unsere Tools mittlerweile weltweit von alltäglichen Benutzern verwendet werden, die jetzt auch GPTs erstellen können“, sagte OpenAI-Sprecher Niko Felix in einer E-Mail an The Intercept. „Ein Grundsatz wie ‚Anderen keinen Schaden zufügen‘ ist weit gefasst, aber dennoch leicht zu verstehen und in zahlreichen Zusammenhängen relevant. Darüber hinaus haben wir als klare Beispiele ausdrücklich Waffen und die Verletzung anderer angeführt.“
Felix lehnte es ab, zu sagen, ob das vage „Schadens“-Verbot die gesamte militärische Nutzung umfasste, und schrieb: „Jede Nutzung unserer Technologie, auch durch das Militär, um“[develop] oder [use] Waffen, [injure] andere bzw [destroy] Eigentum, bzw [engage] bei nicht autorisierten Aktivitäten, die die Sicherheit eines Dienstes oder Systems verletzen, ist nicht zulässig.“
„OpenAI ist sich der Risiken und Schäden bewusst, die durch den Einsatz ihrer Technologie und Dienste in militärischen Anwendungen entstehen können“, sagte Heidy Khlaaf, technische Direktorin beim Cybersicherheitsunternehmen Trail of Bits und Expertin für maschinelles Lernen und autonome Systemsicherheit , unter Berufung auf a Papier 2022 Sie war Co-Autorin mit OpenAI-Forschern, die speziell auf das Risiko einer militärischen Nutzung hingewiesen hat. Khlaaf fügte hinzu, dass die neue Richtlinie offenbar den Schwerpunkt auf Legalität statt Sicherheit legt. „Es gibt einen deutlichen Unterschied zwischen den beiden Richtlinien, da erstere klar darlegt, dass Waffenentwicklung sowie Militär und Kriegsführung verboten sind, während letztere Flexibilität und die Einhaltung des Gesetzes betont“, sagte sie. „Die Entwicklung von Waffen und die Durchführung von Aktivitäten im Zusammenhang mit Militär und Kriegsführung sind in unterschiedlichem Maße rechtmäßig. Die potenziellen Auswirkungen auf die KI-Sicherheit sind erheblich. Angesichts der bekannten Fälle von Voreingenommenheit und Halluzinationen bei Large Language Models (LLMs) und ihrer insgesamt mangelnden Genauigkeit kann ihr Einsatz in der militärischen Kriegsführung nur zu ungenauen und voreingenommenen Operationen führen, die wahrscheinlich zu mehr Schaden und zivilen Opfern führen.“
Die tatsächlichen Konsequenzen der Politik sind unklar. Letztes Jahr berichtete The Intercept, dass OpenAI angesichts des zunehmenden Interesses des Pentagons und der US-Geheimdienste nicht bereit sei, zu sagen, ob es sein eigenes klares „Militär- und Kriegsführungsverbot“ durchsetzen würde.
„Angesichts des Einsatzes von KI-Systemen bei der gezielten Bekämpfung von Zivilisten in Gaza ist es ein bemerkenswerter Moment, die Entscheidung zu treffen, die Wörter ‚Militär und Kriegsführung‘ aus den zulässigen Nutzungsrichtlinien von OpenAI zu streichen“, sagte Sarah Myers West, Geschäftsführerin von AI Now Institut und ehemaliger KI-Politikanalyst bei der Federal Trade Commission. „Der Wortlaut der Richtlinie bleibt vage und wirft Fragen darüber auf, wie OpenAI die Durchsetzung angehen will.“
Während nichts, was OpenAI heute anbietet, plausibel dazu verwendet werden könnte, jemanden direkt zu töten, sei es militärisch oder auf andere Weise – ChatGPT kann keine Drohne manövrieren oder eine Rakete abfeuern –, ist es für jedes Militär eine Aufgabe, zu töten oder zumindest die Fähigkeit zum Töten aufrechtzuerhalten. Es gibt eine beliebige Anzahl benachbarter Aufgaben, die ein LLM wie ChatGPT erweitern könnte, etwa das Schreiben von Code oder die Verarbeitung Beschaffung Aufträge. Eine Überprüfung der von OpenAI angebotenen benutzerdefinierten ChatGPT-basierten Bots legt nahe, dass US-Militärangehörige dies tun bereits verwenden die Technologie, um den Papierkram zu beschleunigen. Die National Geospatial-Intelligence Agency, die die US-Kampfbemühungen direkt unterstützt, hat dies getan spekuliert offen über die Verwendung von ChatGPT zur Unterstützung seiner menschlichen Analysten. Selbst wenn OpenAI-Tools von Teilen einer Militärmacht für Zwecke eingesetzt würden, die nicht direkt gewalttätig sind, würden sie dennoch einer Institution helfen, deren Hauptzweck die Tötung ist.
Experten, die die Richtlinienänderungen im Auftrag von The Intercept überprüften, sagten, dass OpenAI offenbar stillschweigend seine Haltung gegenüber Geschäften mit Militärs schwächt. „Ich könnte mir vorstellen, dass die Verlagerung weg von ‚Militär und Kriegsführung‘ hin zu ‚Waffen‘ einen Raum für OpenAI zur Unterstützung operativer Infrastrukturen lässt, solange die Anwendung nicht direkt die Entwicklung von Waffen im engeren Sinne betrifft“, sagte Lucy Suchman, emeritierte Professorin für Anthropologie von Wissenschaft und Technologie an der Lancaster University. „Natürlich denke ich, dass die Idee, dass man zu Kampfplattformen beitragen kann und gleichzeitig behauptet, nicht an der Entwicklung oder dem Einsatz von Waffen beteiligt zu sein, unaufrichtig wäre und die Waffe aus dem soziotechnischen System – einschließlich der Befehls- und Kontrollinfrastrukturen – entfernen würde, zu dem sie gehört .“ Suchman, seit den 1970er Jahren Experte für künstliche Intelligenz und Mitglied des Internationalen Komitees für Roboterrüstungskontrolle, fügte hinzu: „Es scheint plausibel, dass das neue Grundsatzdokument die Frage militärischer Auftragsvergabe und Kriegsführungseinsätze umgeht, indem es sich speziell auf Waffen konzentriert.“
Suchman und Myers West verwiesen beide auf die enge Partnerschaft von OpenAI mit Microsoft, einem großen Verteidigungsunternehmen, das bisher 13 Milliarden US-Dollar in den LLM-Hersteller investiert hat und die Softwaretools des Unternehmens weiterverkauft.
Die Veränderungen kommen, da Militärs auf der ganzen Welt bestrebt sind, Techniken des maschinellen Lernens zu integrieren, um sich einen Vorteil zu verschaffen; Das Pentagon untersucht immer noch zögerlich, wie es ChatGPT oder andere großsprachige Modelle nutzen könnte, eine Art Softwaretool, das schnell und geschickt anspruchsvolle Textausgaben generieren kann. LLMs werden anhand riesiger Mengen an Büchern, Artikeln und anderen Webdaten trainiert, um menschliche Reaktionen auf Benutzeraufforderungen anzunähern. Obwohl die Ergebnisse eines LLM wie ChatGPT oft äußerst überzeugend sind, sind sie eher auf Kohärenz als auf einen festen Bezug zur Realität optimiert und leiden oft unter sogenannten Halluzinationen, die Genauigkeit und Faktizität zum Problem machen. Dennoch sind LLMs aufgrund ihrer Fähigkeit, schnell Text aufzunehmen und Analysen – oder zumindest das Simulakrum einer Analyse – auszugeben, ideal für das datenintensive Verteidigungsministerium geeignet.
Während sich einige innerhalb der US-Militärführung geäußert haben Sorge Angesichts der Tendenz von LLMs, offensichtliche sachliche Fehler oder andere Verzerrungen einzufügen, sowie der Sicherheitsrisiken, die mit der Verwendung von ChatGPT zur Analyse geheimer oder anderweitig sensibler Daten einhergehen könnten, bleibt das Pentagon generell weiterhin bestrebt, Tools der künstlichen Intelligenz einzusetzen. In einer Ansprache im November sagte die stellvertretende Verteidigungsministerin Kathleen Hicks angegeben dass KI „ein wesentlicher Bestandteil des umfassenden, auf Kampfflugzeuge ausgerichteten Innovationsansatzes“ des Ministers ist [Lloyd] Austin und ich sind vom ersten Tag an gefahren“, obwohl sie warnte, dass die meisten aktuellen Angebote „technisch noch nicht ausgereift genug sind, um unseren ethischen KI-Grundsätzen zu entsprechen.“
Letztes Jahr sagte Kimberly Sablon, die Hauptdirektorin des Pentagons für vertrauenswürdige KI und Autonomie, erzählt eine Konferenz in Hawaii, die „