Loading the Elevenlabs Text to Speech AudioNative Player…

Wie KI-Antworten belauscht werden können – und was wir dagegen tun können

 

Stell dir vor, du chattest vertraulich mit einer KI über persönliche Dinge, vielleicht über deine Reisepläne oder gesundheitliche Bedenken. Du gehst davon aus, dass diese Unterhaltung sicher ist. Aber was, wenn ich dir sage, dass Forscher nun einen Weg gefunden haben, diese vermeintliche Sicherheit zu umgehen?

 

Der Seitenkanalangriff: Eine neue Bedrohung

Ein Team von der Ben-Gurion-Universität in Israel hat gezeigt, dass es möglich ist, die Antworten von fast allen Chat-KIs – einschließlich ChatGPT – aus verschlüsselten Netzwerkdaten zu rekonstruieren. Diese Entdeckung wirft große Bedenken hinsichtlich der Privatsphäre und Sicherheit von KI-gestützten Gesprächen auf.

 

Wie funktioniert der Angriff?

Die Forscher nutzen eine Schwachstelle in der Art und Weise, wie KI-Chats kommunizieren. Obwohl die Übertragung der Gesprächsdaten durch Verschlüsselung geschützt ist, erfolgt die Kommunikation wortweise. Die Verschlüsselung tauscht lediglich jedes Zeichen durch ein anderes aus, was bedeutet, dass die Länge der übertragenen Wörter (oder Tokens) erkennbar bleibt.

 

Mit Hilfe von speziell darauf abgestimmten KIs konnten die Forscher diese Wortlängen nutzen, um große Teile der KI-Antworten zu erraten. In ihren Tests konnten sie in 29% der Fälle die Antworten exakt und in etwa 55% zumindest sinngemäß rekonstruieren.

 

Ein YouTube-Video zeigt am Beispiel vom Microsoft Copilot auf, wie es funktioniert: Token Length Side Channel Video Demo on Microsoft Copilot

 

Was bedeutet das für uns?

Dieser Angriff offenbart eine ernsthafte Sicherheitslücke in der Kommunikation mit KI-Systemen. Viele gängige KI-Dienste, darunter solche von OpenAI, Microsoft und Anthropic, waren anfällig für diesen Angriff. Google’s Bard (mittlerweile Gemini) schien immun, da es keine einzelnen Wörter übermittelt.

 

Wie können wir uns schützen?

Die gute Nachricht ist, dass es Abhilfemaßnahmen gibt. Eine davon ist das sogenannte Padding, bei dem Datenpakete immer auf eine bestimmte Mindestlänge aufgefüllt werden, um die Länge der übertragenen Wörter zu verschleiern. Dies raten Weiss et al in ihrer Veröffentlichung zu dem LLM-Seitenkanalangriff. OpenAI und Cloudflare haben bereits Maßnahmen ergriffen, um ihre Systeme gegen solche Angriffe zu schützen.

 

Was kannst du tun?

  • Sei dir bewusst über die potenziellen Risiken beim Umgang mit KI-Technologien.
  • Vermeide die Weitergabe sensibler Informationen in KI-gesteuerten Chats, bis sichergestellt ist, dass angemessene Schutzmaßnahmen implementiert wurden.
  • Bleibe informiert über die neuesten Sicherheitsentwicklungen im Bereich KI.

 

Bist du fasziniert von der Welt der KI?

Wenn du mehr über KI und ihre Möglichkeiten erfahren möchtest, dann schau bei der KI LEAGUE vorbei. Wir bieten monatliche Online-Talks, in denen wir die neuesten KI-News diskutieren und praktische Beispiele vorstellen. Es ist die perfekte Gelegenheit, tiefer in die Materie einzutauchen und deine Kenntnisse zu erweitern.

Besuche uns auf www.kileague.de und werde Teil unserer Community!

 

Das Bewusstsein für solche Sicherheitsprobleme und der verantwortungsvolle Umgang mit Technologie sind entscheidend für die Zukunft der KI. Lasst uns diese Herausforderungen gemeinsam angehen und eine sichere digitale Welt gestalten.

 

Quellen: https://www.heise.de/news/Angreifer-belauschen-KI-Antworten-trotz-Verschluesselung-und-mit-Hilfe-von-KI-9656113.html