Skip to main content
Binäre Daten - (C) Geralt Altmann CC0 via Pixabay.de Binäre Daten - (C) Geralt Altmann CC0 via Pixabay.de

Amazon Echo: Wie man Sprachfee Alexa angreifen kann

„Alexa, schalte dich ab!“, sagt sie. Und Amazon Echo tut dies. „Alexa, gute Nacht“ – „Danke, dir auch“. Alexa ist „always-on“, auch abgeschaltet. Entsprechende Beiträge und Videos gibt es zu sehen. Und auch Amazon selbst macht keinen Hehl daraus, dass der Assistent Amazon Echo mit dem Sprachassistenten Alexa immer auf Empfang sind. Nun heißt es, dass solche Spracherkennungsprogramme wie eben Alexa (oder halt Siri von Apple oder Cortana von Microsoft) bedeutende Angriffsziele werden können. Oder vielleicht schon sind. Überrascht uns das? Ich glaube nicht.

Kennen Sie diese Werbung, in der ein Mann Gemüse schneidet und dabei Alexa nach den aktuellen Terminen und dem Wetter und so etwas fragt? Sprachassistenz ist der offizielle heiße Scheiß. Speziell Amazon Echo wurde ein Bestseller. Kein Wunder, wenn man bedenkt, dass diese Sprachdienste allgegenwärtig sind und die Sprache die bevorzugte Eingabemethode geworden ist. Wurden einmal irgendwelche Dinge gesprochen wie „Alexa, wie wird das Wetter heute?“ oder ähnliches, wandeln neuronale Netze und Algorithmen all das in Befehle für Computer um.

Wir brauchen uns aber keiner Illusion hinzugeben. Wenn Sie das kleine Echo Dot sehen, müssen Sie nicht denken, dass diese Umwandlung in dem kleinen Ding erfolgen. Nein, damit werden Großrechner gespeist. Und die Befehle und Botschaften bleiben dauerhaft in der Cloud Amazon Web Services. Klar, der Nutzer will ja nicht ständig Alexa wieder neu anlernen. Blöd ist aber, dass die ganzen Botschaften auch erhalten bleiben können, wenn der Nutzer sein Benutzerprofil löscht. Blöd ist auch, dass Geheimdienste und Ermittlungsbehörden auf die Benutzerprofile zugreifen können.

Jetzt wurde bekannt, dass die so genannte Mensch-Maschine-Schnittstelle korrumpiert werden kann. Daber wird dann nicht nur der Computer, sondern auch der nutzende Mensch manipuliert. Und wer das durchführen will, wird wahrscheinlich hohe Erfolgsaussichten haben. Denn der Computer hinter Alexa erkennt falsche Befehle besser als die, die vom Menschen gesprochen werden. Das kann mit manipulierten Klängen geschehen, denn in Tönen können auch versteckte Informationen enthalten sein. Wieso dann kein Schadcode?

Man tut so etwas gern mal als Science Fiction ab. Ich kenne das noch von Star Trek. Da gab es auch mal irgendeine Begebenheit, als Informationen transportiert werden sollten. Und als Trägermedium wählte man Tonsignale. Das heißt also, dass so etwas seit über 30 Jahren möglich sein muss. Alexa wurde ausgetrickst, als man für Menschen fast unhörbare Befehle absetzte, die infizierte Webseiten aufriefen oder Fehlfunktionen in den angeschlossenen Geräten verursachten. Das Gruselige an der Sache ist: Die Befehle müssen nur für Computermikrofone hörbar sein und können zum Beispiel übers Radio übertragen werden.

Und da diese Always-On-Assistenten immer irgendwie auf Empfang stehen, könnten dann irgendwelche Behörden hergehen und über das Radio oder Fernsehen in Trägerwellen Befehle transportieren, die Alexa oder welchen Assistenten auch immer dazu aufrufen, alle möglichen Umgebungsgeräusche aufzuzeichnen. Es gibt hohe Hürden, wie beispielsweise die Technologie, die genau bekannt sein muss. Dennoch ist das Risiko sehr hoch, dass Alexa und Co. angegriffen werden können und für fremde Zwecke missbraucht werden können.

Verteilen Sie diese Erkenntnis doch einfach wie 0 andere auch

Henning Uhle

Henning Uhle ist gelernter Fachinformatiker für System Integration und zertifizierter System Engineer. Meine Sachgebiete sind Messaging & Collaboration sowie High Availability und Domain-Verwaltung. Ich schreibe über verschiedenste Dinge, die mich bewegen. Und es handelt sich immer um meine Sicht.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.