Bloomberg berichtete, dass der chatgpt-Erfinder OpenAI mit dem US-Militär an einer Reihe von Projekten zusammenarbeitet, darunter Cybersicherheitsfunktionen. OpenAI entwickelt mit dem Pentagon Tools für Open-Source-Cybersicherheitssoftware. Es arbeitet auch mit der Defense Advanced Research Projects Agency (DARPA) für seine KI-Cyber-Herausforderung zusammen. Der ChatGPT-Hersteller hat auch erste Gespräche mit der Biden-Regierung über Methoden zur Unterstützung bei der Verhinderung des Suizids von Veteranen geführt, sagte Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, auf dem Weltwirtschaftsforum in Davos.LESEN SIE AUCH: OpenAI und Microsoft erneut wegen „Urheberrechtsverletzung“ verklagt: „Nicht anders als jeder andere Dieb“Kürzlich hatte das von Sam Altman geleitete Unternehmen OpenAI Formulierungen aus seinen Nutzungsbedingungen gestrichen und gleichzeitig künstliche Intelligenz aus militärischen Anwendungen verbannt. Makanju hat die jüngste Entscheidung nun als Teil einer „umfassenderen Aktualisierung“ der Richtlinien bezeichnet. „Da wir zuvor im Wesentlichen ein pauschales Militärverbot hatten, dachten viele Leute, dass dies viele dieser Anwendungsfälle verbieten würde, von denen die Leute denken, dass sie sehr gut mit dem übereinstimmen, was wir in der Welt sehen wollen“, sagte sie. Aber OpenAI hielt an einem Verbot fest, seine Technologie zur Entwicklung von Waffen, zur Zerstörung von Eigentum oder zur Schädigung von Menschen zu nutzen, sagte Makanju gegenüber Bloomberg.LESEN SIE AUCH: „Überprüft, ob…“: EU prüft Microsoft-Investition in OpenAI
Microsoft Corp., der zufällig größte Investor von OpenAI, hat mehrere Softwareverträge an die US-Streitkräfte und andere Regierungsstellen vergeben. OpenAI, Anthropic, google und Microsoft unterstützen die US Defense Advanced Research Agency bei ihrer AI Cyber Challenge bei der Suche nach Software, die Schwachstellen automatisch behebt und die Infrastruktur vor Cyberangriffen schützt. In einer anderen Entwicklung hat OpenAI auch einen Plan zur Abwehr seines Tools vorgelegt vor dem Missbrauch, um wahlbezogene Fehlinformationen zu verbreiten, während sich Wähler in mehr als 50 Ländern, darunter auch Indien, auf die Wahlen in diesem Jahr vorbereiten.
In einem Blogbeitrag erläuterte OpenAI bereits bestehende Richtlinien und neuere Initiativen, um den Missbrauch seiner äußerst beliebten generativen KI-Tools zu verhindern, berichtete AP.
Der ChatGPT-Hersteller sagte, er plane, „unsere Arbeit an der Plattformsicherheit fortzusetzen, indem wir genaue Abstimmungsinformationen verbessern, maßvolle Richtlinien durchsetzen und die Transparenz verbessern“.