Def Con, die weltweit größte Hacker-Konferenz, ist seit langem ein Ort, an dem Cybersicherheits-Ninjas ihre Fähigkeiten unter Beweis stellen können Einbruch in Autos Zu Entdecken von Schwachstellen im Smart Homeoder sogar Wahlmanipulationen.

Daher ist es nicht gerade überraschend, dass Hacker auf der diesjährigen Def Con in Las Vegas ihr Augenmerk auf KI-Chatbots gerichtet haben, ein Trend, der die Welt im Sturm erobert hat, insbesondere seit OpenAI Ende letzten Jahres chatgpt der Öffentlichkeit zugänglich gemacht hat.

Auf dem Kongress fand ein ganzer Wettbewerb statt, NBC-Nachrichten Berichtenicht um Software-Schwachstellen zu identifizieren, sondern um neue zu entwickeln sofortige Injektionen die Chatbots wie Googles Bard oder ChatGPT dazu zwingen, praktisch alles auszuspucken, was Angreifer wollen.

Dem Bericht zufolge beteiligten sich sechs der größten KI-Unternehmen, darunter Meta, google, OpenAI, Anthropic und Microsoft, an der Herausforderung, in der Hoffnung, Hacker dazu zu bringen, Fehler in ihren generativen KI-Tools zu identifizieren.

Sogar das Weiße Haus angekündigt bereits im Mai bekannt gegeben, dass es die Veranstaltung unterstützt.

Und das sollte niemanden überraschen. Diese Chatbots sind technisch beeindruckend, aber sie sind unglaublich schlecht darin, zuverlässig zwischen Wahrheit und Fiktion zu unterscheiden. Und wie wir immer wieder gesehen haben, sind sie leicht zu manipulieren.

Und da Milliarden von Dollar in die KI-Branche fließen, gibt es sehr reale finanzielle Anreize, diese Mängel aufzudecken.

„Alle diese Unternehmen versuchen, diese Produkte zu kommerzialisieren“, sagte Rumman Chowdhury, ein Vertrauens- und Sicherheitsberater, der an der Konzeption des Wettbewerbs beteiligt war NBC. „Und wenn dieses Modell nicht zuverlässig in unschuldigen Interaktionen interagieren kann, dann ist es kein marktfähiges Produkt.“

Siehe auch  Innovation: Wenn ChatGPT „Halluzinationen“ hervorruft, schädigt es den Ruf einzelner Personen

Die am Wettbewerb beteiligten Unternehmen ließen sich viel Spielraum. Beispielsweise werden entdeckte Mängel erst im Februar veröffentlicht, sodass ausreichend Zeit für die Behebung besteht. Auch Hacker auf der Veranstaltung konnten nur über bereitgestellte Laptops auf die Systeme zugreifen.

Ob die Arbeiten jedoch zu dauerhaften Lösungen führen werden, bleibt abzuwarten. Die von diesen Unternehmen implementierten Chatbot-Leitplanken haben sich bereits als unglaublich einfach erwiesen, mit einer einfachen sofortigen Injektion umgangen zu werden, wie Forscher von Carnegie Mellon kürzlich herausgefunden haben, was bedeutet, dass sie in mächtige Desinformations- und Diskriminierungsmaschinen verwandelt werden können.

Schlimmer noch: Laut diesen Forschern gibt es keine einfache Lösung für die Ursache des Problems, obwohl eine Horde von Def Con-Hackern so viele spezifische Probleme identifiziert.

„Es gibt keine offensichtliche Lösung“, sagte Zico Kolter, Professor an der Carnegie Mellon und Autor des Berichts New York Times Im vergangenen Monat. „Sie können in kurzer Zeit so viele dieser Angriffe erstellen, wie Sie möchten.“

„Es gibt keine guten Leitplanken“, sagte Tom Bonner von der KI-Sicherheitsfirma HiddenLayer, Redner auf der diesjährigen DefCon, erzählte dem Associated Press.

Und Forscher der ETH Zürich in der Schweiz fanden kürzlich heraus, dass eine einfache Sammlung von Bildern und Texten verwendet werden könnte, um „Gift“ KI-Trainingsdatenmit möglicherweise verheerenden Auswirkungen.

Kurz gesagt: Den KI-Unternehmen wird die Arbeit schwer fallen, ob nun eine Armee von Hackern ihre Produkte testet oder nicht.

„Fehlinformationen werden noch eine Weile ein anhaltendes Problem bleiben“, sagte Chowdhury NBC.

Mehr zu Chatbots: Die Essensplanungs-KI des Supermarkts schlägt tödliches Gift zum Abendessen vor

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein