Von Rob Waugh, Tech-Korrespondent für Dailymail.Com 14:13 22. Januar 2024, aktualisiert 14:14 22. Januar 2024
- Ein 100-Milliarden-Dollar-KI-Unternehmen arbeitet bereits mit dem Verteidigungsministerium zusammen
- Befürchtet, dass KI zukünftige Konflikte eskalieren könnte – da die Ukraine KI im Feld einsetzt
- LESEN SIE MEHR Vollständig autonome Waffen „könnten bald eingesetzt werden“
OpenAI, der Hersteller von chatgpt, hat stillschweigend seine Regeln geändert und ein Verbot der Nutzung des Chatbots und seiner anderen KI-Tools für militärische Zwecke aufgehoben – und enthüllt, dass es bereits mit dem Verteidigungsministerium zusammenarbeitet.
Experten haben bereits zuvor Befürchtungen geäußert, dass KI dank „Schlachtbots“, die ohne menschliches Eingreifen töten können, Konflikte auf der ganzen Welt eskalieren lassen könnte.
Durch die Regeländerung, die nach Mittwoch letzter Woche erfolgte, wurde ein Satz gestrichen, der besagte, dass das Unternehmen die Verwendung von Modellen für „Aktivitäten, die ein hohes Risiko körperlicher Schäden bergen, darunter: Waffenentwicklung, Militär und Kriegsführung“, nicht zulassen würde.
Ein OpenAI-Sprecher sagte gegenüber DailyMail.com, dass das Unternehmen, das Gespräche über eine Geldbeschaffung im Wert von 100 Milliarden US-Dollar führt, mit dem Verteidigungsministerium an Cybersicherheitstools zum Schutz von Open-Source-Software arbeitet.
Der Sprecher sagte: „Unsere Richtlinien erlauben es nicht, dass unsere Werkzeuge dazu verwendet werden, Menschen zu schaden, Waffen zu entwickeln, die Kommunikation zu überwachen oder andere zu verletzen oder Eigentum zu zerstören.“
„Es gibt jedoch Anwendungsfälle für die nationale Sicherheit, die mit unserer Mission übereinstimmen.“
„Zum Beispiel arbeiten wir bereits mit der Defense Advanced Research Projects Agency (DARPA) zusammen, um die Entwicklung neuer Cybersicherheitstools voranzutreiben, um Open-Source-Software zu sichern, auf die kritische Infrastrukturen und die Industrie angewiesen sind.“
„Es war nicht klar, ob diese vorteilhaften Anwendungsfälle in unseren bisherigen Richtlinien unter „Militär“ zulässig gewesen wären. Das Ziel unserer Richtlinienaktualisierung besteht also darin, Klarheit zu schaffen und die Möglichkeit zu schaffen, diese Diskussionen zu führen.“
Im vergangenen Jahr unterzeichneten 60 Länder, darunter die USA und China, einen „Aufruf zum Handeln“, um den Einsatz künstlicher Intelligenz (KI) aus militärischen Gründen einzuschränken.
Menschenrechtsexperten in Den Haag wiesen darauf hin, dass der „Aufruf zum Handeln“ nicht rechtsverbindlich sei und Bedenken wie etwa tödliche KI-Drohnen oder die Möglichkeit einer Eskalation bestehender Konflikte durch KI nicht berücksichtigte.
Die Unterzeichner sagten, sie seien entschlossen, militärische KI im Einklang mit „internationalen rechtlichen Verpflichtungen und auf eine Weise zu entwickeln und einzusetzen, die die internationale Sicherheit, Stabilität und Rechenschaftspflicht nicht untergräbt“.
Die Ukraine hat im Kampf mit Russland Gesichtserkennung und KI-gestützte Zielsysteme eingesetzt.
Im Jahr 2020 starteten libysche Regierungstruppen eine autonome türkische Kargu-2-Drohne, die sich zurückziehende Rebellensoldaten angriff, laut einem UN-Bericht der erste Angriff dieser Art in der Geschichte.
Die tödliche Drohne sei so programmiert, dass sie angreift, „ohne dass eine Datenverbindung zwischen dem Bediener und der Munition erforderlich ist: im Grunde eine echte „Feuer-, Vergessens- und Finden“-Fähigkeit“, heißt es in dem UN-Bericht.
Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, sagte diese Woche in einem Interview, dass die „Pauschalbestimmung“ gestrichen wurde, um militärische Anwendungsfälle zu ermöglichen, mit denen das Unternehmen einverstanden ist.
Makanju sagte gegenüber Bloomberg: „Weil wir zuvor im Wesentlichen ein pauschales Militärverbot hatten, dachten viele Leute, dass dies viele dieser Anwendungsfälle verbieten würde, von denen die Leute glauben, dass sie sehr gut mit dem übereinstimmen, was wir in der Welt sehen wollen.“
Der Einsatz von KI für militärische Zwecke durch „Big Tech“-Organisationen hat in der Vergangenheit für Kontroversen gesorgt.
Im Jahr 2018 protestierten Tausende von google-Mitarbeitern gegen einen Pentagon-Vertrag – Project Maven –, der die Nutzung der KI-Tools des Unternehmens zur Analyse von Drohnenüberwachungsaufnahmen vorsah.
Im Zuge der Proteste verlängerte Google den Vertrag nicht.
Microsoft-Mitarbeiter protestierten gegen einen 480-Millionen-Dollar-Vertrag zur Ausstattung von Soldaten mit Augmented-Reality-Headsets.
Im Jahr 2017 schrieben Technologieführer, darunter Elon Musk, an die Vereinten Nationen und forderten ein Verbot autonomer Waffen auf der Grundlage von Gesetzen, die denen ähneln, die chemische Waffen und Laser für blinde Menschen verbieten.
Die Gruppe warnte, dass autonome Waffen eine „dritte Revolution in der Kriegsführung“ einzuleiten drohten: Die ersten beiden seien Schießpulver und Atomwaffen.
Die Experten warnten, dass es möglicherweise unmöglich sei, die „Büchse der Pandora“ vollständig autonomer Waffen, sobald sie geöffnet wurde, wieder zu schließen.