Als automatisierter Text Generatoren haben sich schnell und umwerfend von der Fantasie über die Neuheit zum echten Werkzeug entwickelt, sie beginnen, die unvermeidliche nächste Phase zu erreichen: die Waffe. Das Pentagon und die Geheimdienste planen offen, Tools wie chatgpt einzusetzen, um ihre Mission voranzutreiben – aber das Unternehmen hinter dem mega-populären Chatbot schweigt.

OpenAI, der fast 30 Milliarden US-Dollar schwere F&E-Titan hinter ChatGPT, stellt eine öffentliche Liste ethischer Grenzen zur Verfügung, die es nicht überschreiten wird, Geschäfte, die es nicht betreiben wird, egal wie lukrativ, mit der Begründung, dass es der Menschheit schaden könnte. Unter vielen verbotenen Anwendungsfällen sagt OpenAI, dass es militärische und andere Regierungsanwendungen mit „hohem Risiko“ präventiv ausgeschlossen hat. Wie seine Konkurrenten google und Microsoft ist OpenAI bestrebt, seine erhabenen Werte zu erklären, aber nicht bereit, ernsthaft darüber zu diskutieren, was diese angeblichen Werte in der Praxis bedeuten oder wie – oder sogar ob – sie durchgesetzt würden.

„Wenn es eine Sache gibt, die Sie von dem, was Sie hier sehen, mitnehmen können, dann ist es die Schwäche, es den Unternehmen zu überlassen, sich selbst zu überwachen.“

KI-Politikexperten, die mit The Intercept sprachen, sagen, dass das Schweigen des Unternehmens die inhärente Schwäche der Selbstregulierung offenbart, die es Firmen wie OpenAI ermöglicht, einer KI-nervösen Öffentlichkeit gegenüber prinzipientreu zu erscheinen, während sie eine leistungsstarke Technologie entwickeln, deren Ausmaß noch unklar ist. „Wenn es eine Sache gibt, die Sie von dem, was Sie hier sehen, mitnehmen können, dann ist es die Schwäche, es den Unternehmen zu überlassen, sich selbst zu überwachen“, sagte Sarah Myers West, Geschäftsführerin des AI Now Institute und ehemalige KI-Beraterin der Federal Trade Kommission.

Die Frage, ob OpenAI die Militarisierung seiner Technologie zulassen wird, ist keine akademische. Am 8. März versammelte sich die Intelligence and National Security Alliance in Nord-Virginia zu ihrer jährlichen Konferenz über neue Technologien. Die Konfab brachte Teilnehmer sowohl aus dem Privatsektor als auch aus der Regierung zusammen – insbesondere das Pentagon und benachbarte Spionageagenturen – die gespannt darauf waren, wie der US-Sicherheitsapparat Unternehmen auf der ganzen Welt bei der schnellen Einführung von Techniken des maschinellen Lernens unterstützen könnte. Während einer Q&A-Runde wurde Phillip Chudoba, Associate Director for Capabilities der National Geospatial-Intelligence Agency, gefragt, wie sein Büro KI nutzen könnte. Er antwortete ausführlich:

Wir alle betrachten ChatGPT und wie sich das zu einer nützlichen und beängstigenden Technologie entwickelt. … Unsere Erwartung ist, dass … wir uns zu einem Ort entwickeln werden, an dem wir eine Art Kollision von GEOINT, KI, ML und analytischer KI/ML und einigen dieser ChatGPT-Sachen haben, die wirklich dazu in der Lage sein werden Dinge vorherzusagen, an die ein menschlicher Analytiker vielleicht nicht gedacht hat, vielleicht aufgrund von Erfahrung oder Exposition und so weiter.

Abgesehen vom Fachjargon ist Chudobas Vision klar: die Verwendung der Vorhersagetextfähigkeiten von ChatGPT (oder etwas Ähnlichem), um menschlichen Analysten bei der Interpretation der Welt zu helfen. Die National Geospatial-Intelligence Agency, oder NGA, eine relativ obskure Einrichtung im Vergleich zu ihren Geschwistern mit drei Buchstaben, ist der führende Verwalter der Nation für Geoinformationen, oft als GEOINT bezeichnet. Diese Praxis beinhaltet das Zusammenführen einer großen Menge geografischer Informationen – Karten, Satellitenfotos, Wetterdaten und dergleichen – um dem Militär und den Spionagebehörden ein genaues Bild davon zu geben, was auf der Erde vor sich geht. „Jeder, der ein US-Schiff segelt, ein US-Flugzeug fliegt, nationale politische Entscheidungen trifft, Kriege führt, Ziele lokalisiert, auf Naturkatastrophen reagiert oder sogar mit einem Mobiltelefon navigiert, verlässt sich auf NGA“, rühmt sich die Agentur auf ihrer Website. Am 14. April die Washington Post gemeldet die Ergebnisse von NGA-Dokumenten, die die Überwachungsfähigkeiten chinesischer Höhenballons detailliert beschreiben, die Anfang dieses Jahres einen internationalen Zwischenfall verursacht hatten.

Siehe auch  Dark Web ChatGPT entfesselt: Lernen Sie DarkBERT kennen

Verbotene Verwendungen

Aber Chudobas KI-unterstützte GEOINT-Ambitionen werden durch die Tatsache erschwert, dass der Schöpfer der fraglichen Technologie genau diese Anwendung anscheinend bereits verboten hat: Sowohl Anwendungen für „Militär und Kriegsführung“ als auch „Hochrisiko-Regierungsentscheidungen“ sind ausdrücklich verboten. gemäß der Seite „Nutzungsrichtlinien“ von OpenAI. „Wenn wir feststellen, dass Ihr Produkt oder Ihre Nutzung diesen Richtlinien nicht entspricht, bitten wir Sie möglicherweise, die erforderlichen Änderungen vorzunehmen“, heißt es in der Richtlinie. „Wiederholte oder schwerwiegende Verstöße können zu weiteren Maßnahmen führen, einschließlich der Sperrung oder Kündigung Ihres Kontos.“

Nach Industriestandards ist es ein bemerkenswert starkes, klares Dokument, eines, das anscheinend die bodenlosen Verteidigungsgelder abschwört, die weniger skrupellosen Auftragnehmern zur Verfügung stehen, und es scheint ein ziemlich eindeutiges Verbot gegen genau das zu sein, was Chudoba sich vorstellt die Geheimdienstgemeinschaft. Es ist schwer vorstellbar, wie eine Agentur das kann behält die nordkoreanischen Raketenfähigkeiten im Auge und diente als „stiller Partner“ bei der Invasion des Irak, nach Angaben des Verteidigungsministeriumsist nicht die eigentliche Definition von hochriskanten militärischen Entscheidungen.

Während die NGA und andere Geheimdienstagenturen, die sich dem KI-Wahn anschließen wollen, möglicherweise Verträge mit anderen Firmen abschließen, verfügen derzeit nur wenige OpenAI-Konkurrenten über die erforderlichen Ressourcen, um so etwas wie GPT-4 zu entwickeln, das große Sprachmodell, das ChatGPT zugrunde liegt. Chudobas Namecheck von ChatGPT wirft eine entscheidende Frage auf: Würde das Unternehmen das Geld nehmen? So klar das Verbot von OpenAI, ChatGPT für das Knacken ausländischer Geheimdienste zu verwenden, auch erscheinen mag, das Unternehmen weigert sich, dies zu sagen. Sam Altman, CEO von OpenAI, verwies The Intercept an den Unternehmenssprecher Alex Beck, der die Äußerungen von Chudoba nicht kommentieren oder Fragen beantworten wollte. Auf die Frage, wie OpenAI in diesem Fall seine Nutzungsrichtlinie durchsetzen würde, antwortete Beck mit einem Link zur Richtlinie selbst und lehnte eine weitere Stellungnahme ab.

„Ich denke, ihre mangelnde Bereitschaft, sich überhaupt mit der Frage zu befassen, sollte zutiefst besorgniserregend sein“, sagte Myers vom AI Now Institute gegenüber The Intercept. „Ich denke, es widerspricht sicherlich allem, was sie der Öffentlichkeit über ihre Besorgnis über diese Risiken gesagt haben, als ob sie wirklich im öffentlichen Interesse handeln würden. Wenn Sie ins Detail gehen, wenn sie nicht bereit sind, sich über diese Art von potenziellen Schäden zu äußern, dann zeigt das eine Art Schwäche dieser Haltung.“

Öffentlichkeitsarbeit

Selbst die am klarsten formulierten ethischen Grundsätze des Technologiesektors haben sich routinemäßig als Übung in der Öffentlichkeitsarbeit und wenig mehr erwiesen: Twitter verbietet gleichzeitig die Nutzung seiner Plattform zur Überwachung, während es sie direkt ermöglicht, und Google verkauft KI-Dienste an das israelische Verteidigungsministerium, während es offiziell ist „KI-Prinzipien“ verbieten Anwendungen, „die einen Gesamtschaden verursachen oder wahrscheinlich verursachen“ und „deren Zweck gegen allgemein anerkannte Grundsätze des Völkerrechts und der Menschenrechte verstößt“. Die öffentlichen Ethikrichtlinien von Microsoft vermerken eine „Verpflichtung zur Eindämmung des Klimawandels“, während das Unternehmen hilft Exxon bei der Analyse von Ölfelddatenund bekennt sich in ähnlicher Weise zu einem „Engagement für gefährdete Gruppen“, während er Überwachungsinstrumente an die amerikanische Polizei verkauft.

Siehe auch  Beherrschung der KI-Kommunikation: ChatGPT-Strategien für vielbeschäftigte Technik- und Medizinfachleute | von The Quantum Lifestyle | Januar 2024

Es ist ein Problem, dem OpenAI nicht ewig ausweichen kann: Das datengeladene Pentagon ist zunehmend verliebt in maschinelles Lernen, daher sind ChatGPT und seinesgleichen offensichtlich wünschenswert. Am Tag bevor Chudoba in Arlington über KI sprach, sagte Kimberly Sablon, Hauptdirektorin für vertrauenswürdige KI und Autonomie beim Unterstaatssekretär für Forschung und Technik, auf einer Konferenz in Hawaii: „Es gibt viel Gutes in Bezug darauf, wie wir es nutzen können große Sprachmodelle wie [ChatGPT] kritische Funktionen in der gesamten Abteilung zu stören“, National Defense Magazine gemeldet Im vergangenen Monat. Im Februar CIA-Direktor für künstliche Intelligenz Lakshmi Raman erzählt der Potomac Officers Club: „Ehrlich gesagt haben wir die Aufregung im öffentlichen Raum rund um ChatGPT gesehen. Es ist sicherlich ein Wendepunkt in dieser Technologie, und wir müssen es definitiv tun [be exploring] Möglichkeiten, wie wir neue und kommende Technologien nutzen können.“

Steven Aftergood, ein Gelehrter für Regierungsgeheimnisse und langjähriger Beobachter der Geheimdienste bei der Federation of American Scientists, erklärte, warum Chudobas Plan für die Agentur sinnvoll ist. „NGA wird täglich mit weltweiten Geoinformationen überschwemmt, die mehr sind, als eine Armee menschlicher Analysten bewältigen könnte“, sagte er gegenüber The Intercept. „In dem Maße, in dem die initiale Datenauswertung automatisiert oder quasi-intelligenten Maschinen zugeordnet werden kann, könnte der Mensch für besonders dringende Angelegenheiten entlastet werden. Aber was hier angedeutet wird, ist, dass KI mehr als das tun könnte und dass sie Probleme identifizieren könnte, die menschliche Analysten übersehen würden.“ Aftergood sagte, er bezweifle, dass das Interesse an ChatGPT etwas mit seinen sehr beliebten Chatbot-Fähigkeiten zu tun habe, sondern mit dem Potenzial des zugrunde liegenden maschinellen Lernmodells, riesige Datensätze zu sichten und Schlussfolgerungen zu ziehen. „Es wird interessant und ein bisschen beängstigend sein zu sehen, wie das funktioniert“, fügte er hinzu.

Das Pentagon von oben in Washington, DC, am 25. Mai 2016.

Foto: US-Armee

Überzeugender Unsinn

Ein Grund, warum es beängstigend ist, ist, dass Tools wie ChatGPT zwar fast sofort das Schreiben eines Menschen nachahmen können, die zugrunde liegende Technologie jedoch den Ruf erlangt hat, über grundlegende Fakten zu stolpern und plausibel erscheinende, aber völlig falsche Antworten zu generieren. Diese Tendenz, selbstbewusst und überzeugend Unsinn zu verbreiten – ein Chatbot-Phänomen, das als „Halluzinieren“ bekannt ist – könnte ein Problem für hartgesottene Geheimdienstanalysten darstellen. Es ist eine Sache für ChatGPT, über die besten Orte zum Mittagessen in Cincinnati zu flunkern, und eine andere Sache, aussagekräftige Muster aus Satellitenbildern über dem Iran zu fabrizieren. Darüber hinaus fehlt es textgenerierenden Tools wie ChatGPT im Allgemeinen an der Fähigkeit, genau zu erklären, wie und warum sie ihre Ausgaben erzeugt haben; Selbst der ahnungsloseste menschliche Analytiker kann versuchen zu erklären, wie er zu seiner Schlussfolgerung gelangt ist.

Lucy Suchman, emeritierte Professorin für Anthropologie und militarisierte Technologie an der Lancaster University, sagte gegenüber The Intercept, dass die Versorgung eines ChatGPT-ähnlichen Systems mit brandneuen Informationen über die Welt ein weiteres Hindernis darstellt. “Aktuell [large language models] wie diejenigen, die ChatGPT antreiben, sind effektiv geschlossene Welten bereits digitalisierter Daten; bekanntermaßen enden die für ChatGPT gekratzten Daten im Jahr 2021“, erklärte Suchman. „Und wir wissen, dass das schnelle Umtrainieren von Modellen ein ungelöstes Problem ist. Daher scheint die Frage, wie LLMs kontinuierlich aktualisierte Echtzeitdaten integrieren würden, insbesondere in den sich schnell ändernden und stets chaotischen Bedingungen der Kriegsführung, eine große Frage zu sein. Das ist noch nicht einmal, um auf all die Probleme der Stereotypisierung, Profilerstellung und schlecht informierten Ausrichtung einzugehen, die den aktuellen datengetriebenen militärischen Geheimdienst plagen.“

Die mangelnde Bereitschaft von OpenAI, die NGA als zukünftigen Kunden auszuschließen, ist zumindest wirtschaftlich sinnvoll. Regierungsarbeit, insbesondere im Bereich der nationalen Sicherheit, ist für Technologieunternehmen äußerst lukrativ: Im Jahr 2020 erhielten Amazon Web Services, Google, Microsoft, IBM und Oracle einen CIA-Vertrag angeblich während seiner Lebensdauer mehrere zehn Milliarden Dollar wert sein. Microsoft, das Berichten zufolge 13 Milliarden US-Dollar in OpenAI investiert hat und die maschinellen Lernfähigkeiten des kleineren Unternehmens schnell in seine eigenen Produkte integriert, hat selbst zig Milliarden an Verteidigungs- und Geheimdienstarbeit verdient. Microsoft lehnte eine Stellungnahme ab.

Aber OpenAI weiß, dass diese Arbeit sehr umstritten ist, möglicherweise sowohl bei ihren Mitarbeitern als auch bei der breiten Öffentlichkeit. OpenAI genießt derzeit einen weltweiten Ruf für seine schillernden Tools und Spielzeuge für maschinelles Lernen, ein glänzendes öffentliches Image, das durch eine Partnerschaft mit dem Pentagon schnell beschmutzt werden könnte. „Die rechtschaffene Selbstdarstellung von OpenAI steht im Einklang mit den jüngsten Wellen der Ethikwäsche in Bezug auf KI“, bemerkte Suchman. „Ethikrichtlinien richten das ein, was meine britischen Freunde ‚Geiseln des Glücks‘ nennen, oder Dinge, die Sie sagen, die Sie beißen können.“ Suchman fügte hinzu: „Ihre Unfähigkeit, auch nur mit Presseanfragen wie Ihrer umzugehen, deutet darauf hin, dass sie schlecht darauf vorbereitet sind, für ihre eigene Politik verantwortlich zu sein.“

4.9/5 - (75 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein