chatgpt und seinesgleichen von Open AI haben dieses Jahr die Schlagzeilen dominiert und Milliardäre, Fans, Aufsichtsbehörden und andere in ihren Bann gezogen google-ai-fears/index.html“ target=“_blank“>Untergangspropheten. Aber einen Großteil der jüngsten Berichterstattung hat auch gezeigt, warum das Pentagon bei der KI ganz andere Ansätze verfolgt: Militärführer brauchen Werkzeuge, denen sie vertrauen können.

Ein wichtiger Grund dafür, dass ChatGPT und andere sehr große Sprachmodelle die menschliche Schrift so gut nachahmen können, ist der gleiche Grund, warum sie dafür vorgesehen sind Betrug: Das neuronale Netzwerk im Herzen der KI wird durch das Auslesen von Informationen von Millionen von Websites angetrieben. Open AI hat zwar nicht bekannt gegeben, welche Websites es zum Trainieren seiner Tools verwendet hat, aber eine aktuelle Studie Washington Post Untersuchung untersuchte 15 Millionen Websites, die Forscher zum Trainieren ähnlicher Modelle verwendet haben. Es überrascht nicht, dass diese große Datenmenge vieles enthält, was nicht wahr ist – und zwar sprachlich und generativ KI-Modelle lügen häufig.

Selbst wenn Sie große Sprachmodelle auf einem sorgfältig ausgewählten Pool von Websites trainieren würden, könnten Sie immer noch auf „künstliche Halluzination„: „das Phänomen einer Maschine, wie etwa eines Chatbots, die scheinbar realistische Sinneserlebnisse erzeugt, die keinem realen Input entsprechen.“

Daher geht das Verteidigungsministerium beim Einsatz solcher Tools sehr vorsichtig vor.

„Wir werden ChatGPT in seiner aktuellen Instanziierung nicht verwenden. Allerdings sind große Sprachmodelle von großem Nutzen“, sagte Maynard Holliday, stellvertretender Chief Technology Officer des Verteidigungsministeriums für kritische Technologien, am Donnerstag Defense One Tech Summit. „Wir werden diese großen Sprachmodelle, diese generativen KI-Modelle, basierend auf unseren Daten verwenden. Und so werden sie mit Daten des Verteidigungsministeriums maßgeschneidert, auf unseren Daten trainiert und dann auch auf unserem Computer – entweder unserem Computer in der Cloud oder darüber [premises] sodass es verschlüsselt ist und wir im Wesentlichen … sein Feedback analysieren können.“

Siehe auch  Bing AI- und Copilot-Plugins für ChatGPT OpenAI, Microsoft Fabric und mehr

Diese Woche, sagte Holliday, werde das Verteidigungsministerium eine Versammlung einberufen, „um genau herauszufinden, welche Anwendungsfälle es gibt; genau der Stand der Technik in der Branche und der Wissenschaft.“

Das Verteidigungsministerium muss auch zwei Jahre nach einem Jahr besser in der Strukturierung und dem Austausch von Daten werden wegweisende Richtlinie zu diesem Thema, sagte Mike Horowitz, der die Emerging Capabilities Policy leitet Büro In Büro des Verteidigungsministers für Politik.

„Sie benötigen gute Daten, etwa Daten, die auf die Fragen anwendbar sind, die Sie mit KI beantworten möchten“, sagte Horowitz. „Die Daten müssen bereinigt und mit Tags versehen werden, und dieser Prozess ist zeitaufwändig. Und dieser Prozess hat stattgefunden. Ich denke, … herausfordernd. Und es war eine Herausforderung, weil wir all diese Datenkanäle aufbauen, die so konzipiert sind, dass sie voneinander unabhängig sind.“

Kommandeure werden einem Tool nicht vertrauen, wenn sie nicht nachvollziehen können, wie und auf welchen Daten es trainiert wurde, sagte Holliday.

„Im Jahr 2015, als ich im Defence Science Board eine Studie zum Thema Autonomie durchführte, sagten wir unseren Kommandeuren, als wir sie informierten: ‚Wissen Sie, das ist großartig, möglicherweise bahnbrechend, aber … das werden wir nicht.‘ „Benutze es, es sei denn, wir können ihm vertrauen“, sagte er.

Vertrauen aufbauen

Jeder kann mit ChatGPT herumspielen, um herauszufinden, wie sehr man ihm für eine bestimmte Verwendung vertrauen kann, aber DODis geht einen formelleren Weg.

„Anfängliches Vertrauen kann aus Design- und Entwicklungsentscheidungen durch Soldatenkontaktpunkte und grundlegende psychologische Sicherheit gewonnen werden, und kontinuierlich kalibriertes Vertrauen durch Wirksamkeitsnachweise und Rückmeldungen, die das System während der Integration und des Betriebs liefert.“ Daher bestehen bei der Messung des Vertrauens der Kriegskämpfer Herausforderungen, die zusätzliche Forschung und Verständnis erfordern, um zu definieren, was dieses Vertrauen beeinflusst“, sagte er.

In der Praxis ähnelt das stark einigen der Übungen, die CENTCOM derzeit durchführt und bei denen Betreiber verschiedener Dienste und KI in einer immer größer werdenden Reihe von Spielen und Bewertungen zusammenkommen, die sich auf neue Technologien konzentrieren.

Siehe auch  10 erstaunliche Dinge, für die berufstätige Frauen ChatGPT nutzen sollten

Übungen wie Scharlachrote Drachenoase Und Falkenoase sind anders strukturiert als das traditionelle militärische Trainingsspiel, sagte Schuyler Moore, Chief Technology Officer des US Central Command. Diese neuen technologieorientierten CENTCOM-Übungen finden in schneller Folge statt und zielen darauf ab, die Technologie auf der Grundlage des Feedbacks der Soldaten zu erneuern und die Fähigkeiten der Bediener zu verbessern, sagte Moore auf dem Tech Summit. Ein weiterer wichtiger Bestandteil ist die Zusammenarbeit von Betreibern und Bauherren im Rahmen der Übungen.

Diese sollen „in vielerlei Hinsicht den Best Practices der Software-Community und des privaten Sektors folgen, nämlich: Sie tun dies in Sprints; Sie machen es iterativ und wiederholen diese Übungen immer wieder, um sich mit der Zeit zu verbessern“, sagte sie. „Für die Übung, die wir gerade machen, gibt es also ein Muskelgedächtnis, das wir aufbauen, indem wir mit einem Softwareentwickler hin und her iterieren und nicht sagen, dass die Softwarefähigkeit, die mir gegeben wurde, statisch ist … Die Erwartung Jetzt können und werden Sie Lücken darin bohren, Ihr Feedback teilen, mit dem Team iterieren, weiterhin jedes Mal Ihr Feedback geben, und das war – um ehrlich zu sein – ein kultureller Denkwandel, weil frühere Übungen den Leuten nie das gegeben haben Gelegenheit, mit dieser Art von Aktivität zu experimentieren.“

Andrew Moore, ein CENTCOM-Berater für KI, Robotik, Cloud Computing und Datenanalyse, kam von Google zum Kommando, wo er an verschiedenen KI-bezogenen Projekten arbeitete, darunter Project Maven, das als Modell für die Funktionsweise des Militärs gilt könnte in Zukunft Mensch-KI-Teams entwickeln.

CENTCOM spielte eine Schlüsselrolle bei der Einführung von Maven, da viele Analysten die Aufgabe hatten, stundenlange Drohnendaten zu sichten, um zu verstehen, wie sich verschiedene Menschen am Boden verhielten und welche eine Bedrohung darstellen könnten.

Siehe auch  Baidus Umsatz steigt, da KI im ChatGPT-Stil mit der Monetarisierung beginnt

Das Kommando arbeite daran, diese Art von Forschung weiter voranzutreiben, um KI-Engines in die Lage zu versetzen, die von Drohnen aufgenommenen Objekte besser zu verstehen, sagte Moore.

„Die nächste wirkliche Frage besteht darin, sicherzustellen, dass man Rückschlüsse auf das, was wirklich passiert, ziehen kann, indem man Beziehungen zwischen all diesen Punkten auf Karten findet“, sagte er.

Eine bahnbrechende KI-Anwendung für CENTCOM wird in den kommenden Jahren wahrscheinlich weniger wie ein auffälliger und fehlerhafter Textgenerator aussehen, sondern eher wie ein Wissensgraph, an dem Moore bei Google gearbeitet hat. Ein Wissensgraph strukturiert schnell eingehende Daten nach einem groben Konzept ihrer Eigenschaften und Beziehungen zwischen Objekten. Wenn Sie auf einer Social-Media-Website Empfehlungen sehen, mit wem Sie in Kontakt treten könnten, liegt das zum Teil an einem Knowledge Graph.

„Meiner Meinung nach sind es Wissensgraphen, die diese Billionen-Dollar-Unternehmen hervorbringen, die man an der Westküste der Vereinigten Staaten sieht“, sagte er.

Aber für CENTCOM stellt sich Moore den Aufbau einer Engine vor, um die Beziehungen zwischen Objekten auf einer viel tieferen Ebene zu verstehen und es dem Führungspersonal zu ermöglichen, Verbindungen zu erkennen, die das Schlachtfeld und alle darin befindlichen Objekte auf eine Weise erhellen, die Gegner zu verbergen versuchen oder auch nicht sogar bewusst sein.

„Ich denke, das wird eines der verbindenden Themen sein, wie Sie sehen werden“, sagte er. „Es ist absolut wichtig, nicht nur in der Lage zu sein, große Datenmengen aufzunehmen, sondern sie so zu normalisieren, dass wir tatsächlich Schlussfolgerungen ziehen können, damit dieses Schiff auf dem Ozean vielleicht nicht nur eine seltsame Flugbahn einschlägt, sondern aber auch … ihre Finanzierung, oder vielleicht durch ihr Eigentum, oder andere sekundäre oder tertiäre, wirklich ternäre Informationen wie diese.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein