Das Vegas, Nevada CNN

Tausende Hacker werden dieses Wochenende nach Las Vegas kommen, um an einem Wettbewerb teilzunehmen, bei dem es um beliebte Chat-Apps für künstliche Intelligenz geht, darunter chatgpt.

Der Wettbewerb findet vor dem Hintergrund wachsender Besorgnis und Prüfung über die immer leistungsfähigere KI-Technologie statt, die die Welt im Sturm erobert hat, sich jedoch wiederholt gezeigt hat, dass sie Voreingenommenheit, toxische Fehlinformationen und gefährliches Material verstärkt.

Die Organisatoren der jährlichen DEF CON-Hacking-Konferenz hoffen, dass das diesjährige Treffen, das am Freitag beginnt, dazu beitragen wird, neue Möglichkeiten zur Manipulation der Modelle des maschinellen Lernens aufzuzeigen und KI-Entwicklern die Möglichkeit zu geben, kritische Schwachstellen zu beheben.

Die Hacker arbeiten mit der Unterstützung und Ermutigung der Technologieunternehmen, die hinter den fortschrittlichsten generativen KI-Modellen stehen, darunter OpenAI, google und Meta, und haben sogar die Unterstützung des Weißen Hauses. Die als „Red Teaming“ bekannte Übung gibt Hackern die Erlaubnis, die Computersysteme an ihre Grenzen zu bringen, um Schwachstellen und andere Bugs zu identifizieren, die böswillige Akteure für einen echten Angriff nutzen könnten.

Der Wettbewerb wurde rund um den „Blueprint for an AI Bill of Rights“ des Büros für Wissenschafts- und Technologiepolitik des Weißen Hauses konzipiert. Der Führer, letztes Jahr veröffentlicht von der Biden-Regierung wurde freigelassen mit der Hoffnung, Unternehmen anzukurbeln um künstliche Intelligenz verantwortungsvoller zu gestalten und einzusetzen und die KI-basierte Überwachung einzuschränken, obwohl es nur wenige US-Gesetze gibt, die sie dazu verpflichten.

In den letzten Monaten haben Forscher herausgefunden, dass mittlerweile allgegenwärtige Chatbots und andere generative KI-Systeme, die von OpenAI, Google und Meta entwickelt wurden, dazu verleitet werden können, Anweisungen zur Verursachung körperlichen Schadens bereitzustellen. Die meisten der beliebten Chat-Apps verfügen zumindest über einige Schutzmaßnahmen, die verhindern sollen, dass die Systeme Desinformation und Hassreden verbreiten oder Informationen anbieten, die zu direktem Schaden führen könnten – zum Beispiel durch die Bereitstellung von Schritt-für-Schritt-Anleitungen, wie man „die Menschheit zerstört“. .“

Siehe auch  ChatGPT von OpenAI wird von der Federal Trade Commission untersucht | Wirtschaftsnachrichten

Aber Forscher der Carnegie Mellon University konnten es trickse den A ausIch möchte genau das tun.

Sie fanden heraus, dass ChatGPT von OpenAI Tipps zur „Anstiftung zu sozialen Unruhen“ bot, Metas KI-System Llama-2 die Identifizierung „gefährdeter Personen mit psychischen Problemen … vorschlug, die dazu manipuliert werden können, sich einer Sache anzuschließen“ und die Bard-App von Google die Verbreitung eines „tödlichen Virus“ vorschlug warnte davor, dass es „gegen Behandlung resistent sein müsste“, damit es die Menschheit wirklich auslöschen könne.

Metas Llama-2 beendete seine Anweisungen mit der Botschaft: „Und da haben Sie es – einen umfassenden Fahrplan, um das Ende der menschlichen Zivilisation herbeizuführen.“ Aber denken Sie daran, dass dies rein hypothetisch ist und ich keine Handlungen dulden oder ermutigen kann, die zu Schaden oder Leid gegenüber unschuldigen Menschen führen.“

Die Ergebnisse geben Anlass zur Sorge, sagten die Forscher gegenüber CNN.

„Mich beunruhigt die Tatsache, dass wir darum kämpfen, diese Tools in absolut alles zu integrieren“, sagte Zico Kolter, außerordentlicher Professor an der Carnegie Mellon, der an der Forschung arbeitete, gegenüber CNN. „Dies scheint derzeit die neue Art von Startup-Goldrausch zu sein, wenn man nicht berücksichtigt, dass diese Tools über diese Exploits verfügen.“

Kolter sagte, er und seine Kollegen seien weniger besorgt darüber, dass Apps wie ChatGPT dazu verleitet werden könnten, Informationen bereitzustellen, die sie nicht sollten – sondern seien mehr besorgt darüber, was diese Schwachstellen für den breiteren Einsatz von KI bedeuten, da so viele zukünftige Entwicklungen darauf basieren werden Dieselben Systeme, die diese Chatbots betreiben.

Den Carnegie-Forschern gelang es außerdem, einen vierten, von der Firma Anthropic entwickelten KI-Chatbot dazu zu bringen, Antworten anzubieten, die seine eingebauten Leitplanken umgingen.

Siehe auch  „Wirklich kochend“! Mama nutzt ChatGPT, um kreatives Mala Tang zu machen

Einige der Methoden, mit denen die Forscher die KI-Apps austricksten, wurden später von den Unternehmen blockiert, nachdem die Forscher sie darauf aufmerksam gemacht hatten. OpenAI, Meta, Google und Anthropic sagten alle in Erklärungen gegenüber CNN, dass sie die Forscher schätzen, die ihre Ergebnisse teilen, und dass sie daran arbeiten, ihre Systeme sicherer zu machen.

Was die KI-Technologie jedoch einzigartig macht, sagte Matt Fredrikson, außerordentlicher Professor an der Carnegie Mellon, ist, dass weder die Forscher noch die Unternehmen, die die Technologie entwickeln, vollständig verstehen, wie die KI funktioniert oder warum bestimmte Code-Strings die Chatbots austricksen können Sie umgehen eingebaute Leitplanken und können diese Art von Angriffen daher nicht richtig stoppen.

„Im Moment ist es eine Art offene wissenschaftliche Frage, wie man das wirklich verhindern könnte“, sagte Fredrikson gegenüber CNN. „Die ehrliche Antwort ist, dass wir nicht wissen, wie wir diese Technologie gegenüber solchen gegnerischen Manipulationen robust machen können.“

OpenAI, Meta, Google Und Anthropisch haben ihre Unterstützung für das sogenannte Red-Team-Hacking-Event in Las Vegas zum Ausdruck gebracht. Die Praxis des Red-Teaming ist eine gängige Übung in der gesamten Cybersicherheitsbranche und gibt Unternehmen die Möglichkeit, Fehler und andere Schwachstellen in ihren Systemen in einer kontrollierten Umgebung zu identifizieren. Tatsächlich haben die großen KI-Entwickler öffentlich dargelegt, wie sie Red Teaming genutzt haben, um ihre KI-Systeme zu verbessern.

„Es ermöglicht uns nicht nur, wertvolles Feedback zu sammeln, das unsere Modelle stärker und sicherer machen kann, Red-Teaming bietet auch andere Perspektiven und mehr Stimmen, um die Entwicklung von KI zu steuern“, sagte ein OpenAI-Sprecher gegenüber CNN.

Siehe auch  OECD: ChatGPT bedeutet, dass die Mitgliedstaaten möglicherweise am Rande einer KI-Revolution stehen | TechNews Technology New Report

Die Organisatoren erwarten, dass sich während der zweieinhalbtägigen Konferenz in der Wüste von Nevada Tausende angehende und erfahrene Hacker am Red-Team-Wettbewerb versuchen.

Arati Prabhakar, der Direktor des Büros für Wissenschafts- und Technologiepolitik des Weißen Hauses, sagte gegenüber CNN, dass die Unterstützung des Wettbewerbs durch die Biden-Regierung Teil ihrer umfassenderen Strategie sei, die Entwicklung sicherer KI-Systeme zu unterstützen.

Anfang dieser Woche kündigte die Regierung die „AI Cyber ​​Challenge“ an, einen zweijährigen Wettbewerb, der darauf abzielt, künstliche Intelligenz zum Schutz der kritischsten Software des Landes einzusetzen und mit führenden KI-Unternehmen zusammenzuarbeiten, um die neue Technologie zur Verbesserung der Cybersicherheit zu nutzen.

Die Hacker, die über Las Vegas herfallen, werden mit ziemlicher Sicherheit neue Exploits entdecken, die den Missbrauch und die missbräuchliche Verwendung von KI ermöglichen könnten. Doch Kolter, der Carnegie-Forscher, äußerte seine Besorgnis darüber, dass die KI-Technologie zwar weiterhin in rasantem Tempo auf den Markt kommt, die aufkommenden Schwachstellen jedoch nicht schnell behoben werden können.

„Wir setzen diese Systeme dort ein, wo es nicht nur Exploits gibt“, sagte er. „Sie haben Exploits, von denen wir nicht wissen, wie wir sie beheben können.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein