Jüngste Entwicklungen im Bereich der Cybersicherheit haben zur Entstehung von Morris II geführt, einem generativen KI-Wurm, der sich autonom zwischen Systemen der künstlichen Intelligenz verbreiten soll. Diese bösartige Innovation, die in der Lage ist, Daten zu extrahieren und Spam zu verbreiten, gefährdet die Sicherheit renommierter Modelle wie ChatGPT und Gemini.

Würde Sehen
Quelle: Wired

Das Aufkommen von künstliche Intelligenz verwandelt unsere Telefone in echte digitale Begleiter. Die jüngste Integration von Galaxy AI in die Galaxy S24-Serie und ihre Ausweitung auf andere Samsung-Geräte verdeutlichen diesen Trend und bieten Benutzern intuitivere und personalisiertere Interaktionen. google wiederum plant die Implementierung von Gemini in unseren Smartphones und markiert damit einen weiteren Schritt in Richtung einer Ära, in der KI wird bereichern vor allem die Art und Weise, in der Wir benutzen unsere Handys.

Das Ökosystem Android wird auch durch die Einführung neuer Player wie Microsoft Copilot bereichert, die erweiterte KI-Funktionen bieten. Gleichzeitig soll die Integration von Bard in Google Assistant angestrebt werden Booster SES-Leistungenwas die Begeisterung rund um die Technologie hervorhebtIntelligente Assistenz. Diese schnelle Innovation geht jedoch mit ein Sicherheitsproblemeinsbesondere mit dem Aufkommen von Bedrohungen wie Morris II, einem KI-Wurm, der sich zwischen Systemen ausbreiten kann.

Der Wurm Moris II nutzt Schwachstellen der generativen KI aus

Der Wurm Morris IIentwickelt von Ben Nassi und seinem Team bei Cornell Tech, stellt eine dar neue Generation von Cyber-Bedrohungen. Es nutzt Konnektivität und die Autonomie von KI-Ökosystemen. Es verbreitet sich mithilfe gegnerischer Selbstreplikationsaufforderungen, einem cleveren Mechanismus, der es ihm ermöglicht, einzudringen und zu infiltrieren Übernimm die Kontrolle über andere KI-Agenten. Sobald es sich im System befindet, kann es eine Reihe nicht autorisierter Aktionen ausführen, z Datenextraktion vertraulich bzw Malware-Bereitstellung. Im Fall eines E-Mail-basierten Assistenten könnte der Wurm beispielsweise seinen eigenen Schadcode in die vom Assistenten generierten Antworten einfügen und so Spam oder andere E-Mails versenden bösartige Links an alle Kontakte des Benutzers, ohne dass der Benutzer davon Kenntnis hat.

Siehe auch  Sind die Prognosen von ChatGPT zum Preis von SHIB optimistisch?

Autonomie und die Fähigkeit von Morris II, sich lautlos zwischen KI-Agenten auszubreiten, stellen eine große Herausforderung für bestehende Sicherheitsprogramme dar. Um diese Bedrohung abzuschwächen, empfehlen Sicherheitsexperten wie Adam Swanda von Robust Intelligence Vorsichtsmaßnahmen wie sicheres Design von KI-Anwendungen und strenge menschliche Überwachung. Ziel dieser Maßnahmen ist es, sicherzustellen, dass die von KI-Agenten ergriffenen Maßnahmen stets einem Risiko unterliegen ausdrückliche Zustimmung, wodurch das Risiko unbefugter Aktivitäten verringert wird. Darüber hinaus kann die Überwachung auf sich wiederholende oder ungewöhnliche Muster in KI-Systemen dabei helfen, potenzielle Bedrohungen zu erkennen und ein schnelles Eingreifen zu ermöglichen, bevor der Wurm Schaden anrichtet. erheblicher Schaden.

Quelle : Verdrahtet

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein