Die meisten KI-Dienste können Seitenkanalangriffen trotz starker Verschlüsselungsprotokolle nicht standhalten. Bildnachweis: Pexels
Eine aktuelle Studie von Forschern der israelischen Ben-Gurion-Universität hat erhebliche Datenschutzlücken mehrerer KI-Chatbots aufgezeigt und Anlass zu Bedenken hinsichtlich der Sicherheit privater Gespräche gegeben.
Laut Yisroel Mirsky, Leiter des Offensive AI Research Lab an der Ben-Gurion-Universität, können böswillige Akteure diese Schwachstellen ausnutzen, um Chats abzuhören, die über Plattformen wie chatgpt geführt werden.
Mirsky betonte, dass Personen, die dasselbe Wi-Fi-Netzwerk oder lokale Netzwerk (LAN) wie die Chat-Teilnehmer nutzen, oder sogar entfernte böswillige Akteure Gespräche unbemerkt abfangen und überwachen können.
Der Forschungsbericht identifiziert diese Exploits als „Side-Channel-Angriffe“, eine Methode, bei der Dritte Daten passiv über Metadaten oder andere indirekte Mittel sammeln, anstatt Sicherheitsbarrieren zu durchbrechen.
Im Gegensatz zu herkömmlichen Hacks, die direkt in Firewalls eindringen, nutzen Seitenkanalangriffe Schwachstellen in Verschlüsselungsprotokollen aus. Trotz Verschlüsselungsbemühungen von KI-Entwicklern wie OpenAI entdeckte Mirskys Team Mängel in der Verschlüsselungsimplementierung, wodurch der Nachrichteninhalt anfällig für das Abfangen war.
Während Seitenkanalangriffe im Allgemeinen weniger invasiv sind, bergen sie erhebliche Risiken, wie die Fähigkeit der Forscher zeigt, Chat-Eingabeaufforderungen mit einer Genauigkeit von 55 Prozent abzuleiten. Diese Anfälligkeit macht sensible Themen für böswillige Akteure leicht erkennbar.
Obwohl die Studie in erster Linie die Verschlüsselungspraktiken von OpenAI untersucht, deutet sie darauf hin, dass die meisten Chatbots, mit Ausnahme von Googles Gemini, anfällig für ähnliche Exploits sind.
Im Mittelpunkt dieser Schwachstellen steht die Verwendung von „Tokens“ durch Chatbots, die eine effiziente Kommunikation zwischen Benutzern und KI-Modellen ermöglichen. Obwohl Chatbot-Übertragungen normalerweise verschlüsselt sind, stellen die Token selbst eine Schwachstelle dar, die bisher übersehen wurde.
Der Zugriff auf Echtzeit-Token-Daten ermöglicht es böswilligen Akteuren, Gesprächsaufforderungen abzuleiten, ähnlich dem Abhören eines Gesprächs durch eine geschlossene Tür.
Um ihre Ergebnisse zu untermauern, nutzte Mirskys Team ein zweites KI-Modell, um die über den Seitenkanal erfassten Rohdaten zu analysieren. Ihre Experimente ergaben eine hohe Erfolgsquote bei der Vorhersage von Gesprächsaufforderungen, was die Schwere der Schwachstelle unterstreicht.
Als Reaktion auf diese Bedenken versicherte Microsoft den Benutzern, dass persönliche Daten durch den Exploit, der seine Copilot-KI betrifft, wahrscheinlich nicht gefährdet werden. Das Unternehmen versprach jedoch, das Problem umgehend mit Updates zu beheben, um die Kunden zu schützen.
Die Auswirkungen dieser Schwachstellen sind tiefgreifend, insbesondere bei sensiblen Themen wie Abtreibung und LGBTQ-Themen, bei denen die Privatsphäre an erster Stelle steht. Die Ausnutzung dieser Schwachstellen könnte schwerwiegende Folgen haben und möglicherweise Personen gefährden, die Informationen zu solchen Themen suchen.
Während sich die Debatte um KI-Ethik und Datenschutz intensiviert, unterstreichen diese Ergebnisse die dringende Notwendigkeit robuster Sicherheitsmaßnahmen zum Schutz der Privatsphäre der Benutzer bei KI-gesteuerten Interaktionen.