Bis vor kurzem erlaubte OpenAI nicht, dass seine Modelle für Aktivitäten verwendet werden, bei denen „ein hohes Risiko körperlicher Schäden besteht, einschließlich Waffenentwicklung, Militär und Kriegsführung“. Jetzt wurden die Wörter „Militär“ und „Kriegsführung“ entfernt. Ist dies ein Routine-Update, oder sollten wir uns Sorgen machen?

Was ist die Richtlinienänderung bei OpenAI?

Bis vor Kurzem hatte OpenAI die Verwendung seiner Modelle für die Waffenentwicklung sowie für Militär- und Kriegsführung ausdrücklich verboten. Doch am 10. Januar aktualisierte es seine Richtlinie. Sie verhindert weiterhin die Nutzung ihres Dienstes, „um sich selbst oder anderen Schaden zuzufügen“, und führt als Beispiel „Waffen entwickeln oder einsetzen“ an, hat jedoch die Wörter „Militär“ und „Kriegsführung“ entfernt, wie erstmals von The Intercept hervorgehoben wurde. Da OpenAI bereits bei einer Reihe von Projekten mit dem Pentagon zusammenarbeitet, darunter Cybersicherheitsinitiativen, besteht in einigen Kreisen die Sorge, dass diese Abschwächung der Haltung zum Missbrauch von GPT-4 und chatgpt für Militär- und Kriegsführung führen könnte.

Was ist der Kontext dieser politischen Änderung?

Microsoft Corp., der größte Investor von OpenAI, hat bereits Softwareverträge mit den Streitkräften und anderen Regierungsstellen in den USA. Im September 2023 gab die US-amerikanische Defense Advanced Research Projects Agency (DARPA) bekannt, dass sie mit Anthropic, google, Microsoft und OpenAI zusammenarbeiten werde, um bei der Entwicklung „modernster Cybersicherheitssysteme“ zu helfen. Anna Makanju, Vizepräsidentin für Global bei OpenAI Affairs sagte in einem Interview beim Weltwirtschaftsforum in Davos am 16. Januar, dass das Unternehmen Gespräche mit der US-Regierung über Methoden zur Verhinderung von Selbstmorden von Veteranen aufgenommen habe.

Siehe auch  ChatGPT und das Spiel der 7 Unterschiede

Was sagt OpenAI dazu?

OpenAI teilte TechCrunch mit, dass es zwar nicht zulasse, dass seine Plattform zur Schädigung von Menschen, zur Entwicklung von Waffen, zur Kommunikationsüberwachung oder zur Verletzung anderer oder zur Zerstörung von Eigentum genutzt werde. Es gibt jedoch „nationale Sicherheitsanwendungsfälle, die mit unserer Mission übereinstimmen“, wie beispielsweise die Partnerschaft mit DARPA zur Entwicklung von Cybersicherheitstools.

Kann KI zur Herstellung von Waffen eingesetzt werden?

Einige befürchten, dass KI-gestützte „Roboter-Generäle“ irgendwann in der Lage sein könnten, Atomwaffen abzufeuern. Das WEF zählt in seinem Global Risks Report 2024 negative Auswirkungen der KI zu den größten Risiken. Am 16. Mai 2023 sagte Sam Altman, CEO von OpenAI, vor einer Sitzung des Unterausschusses des US-Senats: „Wenn diese Technologie schief geht, kann sie ziemlich schief gehen …“ „Am 28. Mai 2023 sagte Dario Amodei, CEO von Anthropic, vor einem anderen Unterausschuss aus, dass KI-Modelle zur Herstellung von Biowaffen missbraucht werden könnten, wenn keine entsprechenden Schutzmaßnahmen ergriffen würden.

Brauchen wir mehr Gesetze, um das Problem anzugehen?

Einige Experten glauben, dass KI-gestützte Maschinen irgendwann wie Menschen denken und handeln werden – sogenannte künstliche allgemeine Intelligenz (AGI) oder künstliche Superintelligenz (ASI). Es besteht weitgehend Einigkeit darüber, dass ein Entwurf eines risikobasierten KI-Gesetzes der Europäischen Union; die Leitprinzipien und der KI-Verhaltenskodex der G-7; und das US-KI-Gesetz sind Schritte in die richtige Richtung. Auch Indien wird voraussichtlich bald den Digital India Act mit Leitplanken zur Regulierung von KI und Vermittlern einführen. Allerdings sollte die Angst vor KI Innovationen nicht behindern.

5/5 - (492 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.