Wenn Microsoft, google und OpenAI sich weigern, Parameter ihrer Plattformen für generative künstliche Intelligenz weiterzugeben, können wir ihnen dann vertrauen?

Die standardmäßige Geheimhaltungskultur der „großen KI“ ist ein gefährlicher Präzedenzfall, wenn man die zunehmende Akzeptanz generativer KI in der Gesellschaft und die Möglichkeit bedenkt, dass die Technologie Opfer böswilliger Akteure werden könnte. Das ist das Argument von Baldur Bjarnason, der kürzlich in einem Blog davor warnte, dass, wenn KI eine Blackbox ist, das Unternehmen, das die Technologie nutzt, anfällig für eine neue Form der „Black-Hat-Keyword-Manipulation“ ist.

„Wir wissen seit langem, dass KI-Modelle ‚vergiftet‘ werden können“, schrieb Bjarnason in einem Essay, in dem er für ein bald erscheinendes Buch wirbt. „Wenn Sie einen KI-Anbieter dazu bringen können, ein paar maßgeschneiderte toxische Einträge aufzunehmen, dann scheinen Sie das nicht zu tun.“ Um so viele zu benötigen, selbst für ein großes Modell, kann der Angreifer die vom System als Ganzes generierten Ergebnisse beeinflussen.“

Er geht davon aus, dass es durchaus möglich ist, dass böswillige Akteure chatgpt bereits vergiftet haben und es keine Möglichkeit gibt, dass die Benutzer davon erfahren könnten.

Bjarnason sagte, wir wüssten es nicht genau, weil OpenAI nicht über seine Sprach- und Diffusionsmodelle spricht oder darüber, wie es Eingabeaufforderungen validiert, die es für das Training verwendet, wie es Trainingsdatensätze überprüft und wie es generierte Antworten verfeinert.

„[OpenAI’s] Geheimhaltung bedeutet, dass wir nicht wissen, ob ChatGPT sicher verwaltet wurde“, schrieb Bjarnason, Autor von „Die Intelligenzillusion.“

Bjarnason war besonders besorgt darüber, dass die großen KI-Unternehmen, darunter OpenAI, Hersteller von ChatGPT, sich weigern, unparteiischen Forschern Zugriff auf ihre Modelle und Trainingsdaten zu gewähren, die für die zuverlässige Replikation von Forschung und Studien erforderlich sind. Er ist auch besorgt über den Hype und die falschen Behauptungen rund um KI, die die Branche Ende April auf der RSA-Konferenz in San Francisco in Hülle und Fülle sah.

Siehe auch  Die Ukraine nutzt ChatGPT und 3D-Druck für Drohnenbomben

„Selbst wenn wir davon ausgehen, dass die Tendenz zu Pseudowissenschaft und schlechter Forschung nicht in der Kultur der KI-Forschung verankert ist, und einfach davon ausgehen, dass die gesamte Branche in einem Ausbruch aufgeklärter Selbsterkenntnis spontan ihre Liebe verlieren wird Bei unsinnigen Ideen und übertriebenen Behauptungen sollte uns die Geheimhaltung trotzdem stören“, schrieb Bjarnason. „So viel Geheimhaltung – oder Informationsasymmetrie – ist ein fataler Schlag für einen freien Markt.“

Bruce Schneier, Blogger für öffentliche Sicherheit im Bereich Sicherheit, hat einen von Bjarnasons jüngsten Essays zum Thema „Schneier on Security“ gepostet Blog. Der Aufsatz löste Interesse und Kommentare aus.

Geschwätz über ChatGPT

Ein Kommentator namens IsmarGPT argumentierte, dass wir schädliche Auswirkungen riskieren, da die Tech-Eliten und ein faszinierter öffentlicher Vorstoß für den blinden Einsatz von KI möglicherweise eine harte Lektion auf die harte Tour lernen würden. „KI hat [the] Potenzial, mehr Schaden als Nutzen anzurichten, aber leider sieht es so aus, als ob wir das auf die harte Tour herausfinden werden, vor allem aufgrund des kurzfristigen Interesses der amtierenden Tech-Elite sowie der Fülle der faszinierten Bevölkerung.“

Ein anderer Benutzer namens Peter sagte, trotz der Begeisterung für ChatGPT würden Skeptiker darin ein bloßes probabilistisches Tool sehen, dem es an echter Intelligenz mangele. „Es ist nur eine Frage der Zeit, bis jemand ChatGPT zerstört. Die Architekten haben die Wahrscheinlichkeit für jedes aufeinanderfolgende Wort sehr geschickt gewählt, aber sie bleibt zufällig. Es hat weder Intelligenz noch Absicht.“

Angesichts der zunehmenden Verbreitung und des Wachstums generativer KI sind starke Meinungen verständlich. Laut einer Marktanalyse von IDC und Bloomberg soll der Markt für Hardware und Dienste für künstliche Intelligenz bis 2025 auf 90 Milliarden US-Dollar wachsen – von 36 Milliarden US-Dollar im Jahr 2020.

Siehe auch  Der Kongress schränkt die Nutzung von ChatGPT in Büros ein

„Wir sehen ein starkes Interesse von Unternehmen, umweltschonende KI in ihr bestehendes Ökosystem zu integrieren. „Wir gehen daher davon aus, dass der Anteil der Konversations-KI am gesamten adressierbaren KI-Markt bis 2025 auf 20 % (18 bis 20 Milliarden US-Dollar) steigen kann“, so a UBS-Bericht vom Februar 2023.

Alles Gerede, Angriffsvektoren

KI-Datenvergiftung ist eine Form des gegnerischen Angriffs und tritt auf, wenn Angreifer Trainingsdatensätze manipulieren, indem sie vergiftete oder verunreinigte Daten einschleusen, um das Verhalten des trainierten maschinellen Lernmodells zu steuern und falsche Ergebnisse zu liefern.

In einem aktueller Aufsatzbeschrieb Bjarnason 12 Fälle, in denen KI-Modelle vergiftet wurden – und die Angriffe umfassen nahezu alle Arten von KI-Modellen.

„Sie scheinen keine besonderen Kenntnisse über die Interna des Systems zu erfordern“, schrieb Bjarnsason. „Es hat sich mehrfach gezeigt, dass Black-Box-Angriffe funktionieren – was bedeutet, dass die Geheimhaltung von OpenAI nichts hilft.“

Krishna Vishnubhotla, Vizepräsident für Produktstrategie bei Zimperium, sagte, dass Angreifer ChatGPT zwar nicht über Nacht zerstören, es aber im Laufe der Zeit langsam vergiften können. Vishnubhotla sagte, wir werden nie wirklich wissen, wann dieser Übergang zu einem „kaputten“ Zustand stattgefunden hat, da er so subtil und im Laufe der Zeit erfolgen wird.

Bellen größer als Biss?

„OpenAI sollte erwägen, der Forschungsgemeinschaft Zugriff auf ihre Modelle zu gewähren“, sagte Vishnubhotla. „Die Ermöglichung von Zusammenarbeit und Wissensaustausch würde Fortschritte in verschiedenen gesellschaftlichen Bereichen fördern. Durch die Öffnung des Modells für eine externe Prüfung können wertvolle Erkenntnisse gewonnen werden, die zur Verfeinerung des Modells beitragen und die Verbreitung von Fehlinformationen eindämmen. Eine solch leistungsstarke und unverzichtbare Technologie sollte dem Wohl der Menschheit dienen und nicht ausschließlich vom Privatsektor monetarisiert werden.“

Siehe auch  ChatGPT, GenAI-Sicherheit: Die Chance für MSSPs

John Bambenek, Hauptbedrohungsjäger bei Netenrich, sagte, dass ChatGPT in seiner heutigen Form weitgehend harmlos sei. Wie bei jedem Werkzeug spielen die Risiken eine große Rolle, wenn jemand versucht, eine Arbeit oder Aufgabe damit zu erledigen.

„Heute befinden wir uns in der Neuheitenphase“, sagte Bambenek. „Als Facebook die Gesichtserkennung einführte, war das ebenfalls ein Novum. Als dieselbe Technologie auf die Polizeiarbeit angewendet wurde, führten wir zu Menschenrechtsproblemen, da die Systeme in Minderheitenbevölkerungen weniger zuverlässig waren. Bei jedem KI-/ML-System sollte immer ein Mensch im Spiel sein. Wenn wir den Menschen ausschalten, wird er auf schlimme Weise kaputt gehen, da er auf wichtigere Probleme angewendet wird als auf Highschool-Schüler, die versuchen, ihre Papiere zu betrügen.“

Bambenek fügte hinzu, dass derzeit niemand wirklich weiß, wie man die Sicherheit von KI-/ML-Systemen reguliert oder gewährleistet. Eine Denkrichtung besteht darin, es wie eine Verschlüsselung mit vollständiger Transparenz und aussagekräftigen Bewertungen zu behandeln. Das hat großen Reiz, aber er befürchtet auch, dass der Angriff umso einfacher und nicht schwieriger wird, je mehr wir die KI öffnen.

Bis heute ist die europäische Union hat einen Verordnungsentwurf verabschiedet, der KI-Systeme mit einem inakzeptablen Risiko für die Sicherheit von Menschen strikt verbieten würde, einschließlich Systemen, die unterschwellige oder gezielt manipulative Techniken einsetzen, die Schwachstellen von Menschen ausnutzen oder zur Klassifizierung von Menschen anhand ihres sozialen Verhaltens und ihrer sozioökonomischen Lage dienen Status.

In den Vereinigten Staaten gab es Bemühungen, die Grundsätze der Fairness, Nichtdiskriminierung und Sicherheit auf KI-Produkte für den Einsatz in Bundesbehörden anzuwenden, sowie allgemeine Kommentare von Präsident Joe Biden zu den potenziellen Vorteilen und Gefahren von KI, aber keine ernsthaften Es sind nationale Gesetze zum Thema KI entstanden.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein