Nach Proof-of-Concept-Angriff – Alexa wird zum Spion

Nach Proof-of-Concept-Angriff – Alexa wird zum Spion

Mittels eines Proof-of-Concept-Angriffs zeigten Sicherheitsforscher von Checkmarx, dass es generell möglich ist, Amazons digitalen Assistenten Alexa zu einem Abhörgerät umzufunktionieren. Alexa wurde dazu gebracht, seinen Benutzern auf unbestimmte Zeit zuzuhören, sowie eine Transkription von allem zu liefern, was vor dem Gerät gesagt wird, nachdem das Weckwort, wie “Alexa”, “Echo” oder “Computer”, erkannt wurde, berichtet Checkmarx.

Forscher des Cybersicherheitsunternehmens Checkmarx konnten einen selbst entwickelten Skill, eine mit Spionage-Routinen versehene Anwendung für den sprachaktivierten Assistenten, zum Abhören von Usern nutzen. So hört der Smartspeaker auch nach einer Nutzerfrage einfach weiter zu und leitet alle stattfindenden Gespräche in Hörweite des Gerätes transkribiert weiter, denn der vorhandene Exploit gestattet, dass die Aufnahme-Session nicht wie vorgesehen mit der eigentlichen Spracheingabe beendet wird, sobald der Nutzer mit den von ihm angeforderten Informationen versorgt wurde.

Standardmäßig soll der aktive Zyklus von Alexa relativ kurz sein und sie beendet die Sitzungen nach jeder Anwendung, wobei Alexa den Benutzer informiert, wenn eine offene Sitzung geschlossen wird und sie zurück in eine inaktive Phase tritt. Alexas API lässt aber einen leeren Wiederholungs-Code zu, sodass die Sprachansage stumm bleiben kann. Das bedeutet für diesen Fall, Alexa ist durch den wirksamen Skill, unter Ausnutzung der Schwachstelle, davon überzeugt, dem Nutzer signalisiert zu haben, dass sie weiterhin zuhört, der Nutzer das allerdings nicht mitbekommt, da es keine Sprachansage gibt. Der User könnte das nur durch den ununterbrochen blau leuchtenden Lichtring am Lauschsprecher erkennen. Die Sicherheitsforscher gehen aber davon aus, dass viele Benutzer es nicht bemerken würden, weil sie einfach nicht auf das Gerät schauen. Wenn also Echo also einmal aktiviert war, so zeichnet das Mikrofon dauerhaft und in der Regel völlig unbemerkt alle Gespräche auf. Die mitgeschnittenen Audio-Inhalte gelangen dann zuerst an die in der Cloud liegende Alexa-KI, welche eine Transkription des Gesprochenen an den Skill-Anbieter weiterleitet.

Erez Yalon, Manager der Anwendungssicherheitsforschung bei Checkmarx erklärt: “Es gibt keine Begrenzung für die Länge der Sitzung, die Anzahl der Wörter oder Sätze, es geht einfach weiter, solange, bis der Nutzer es ausschaltest. […] Dazu haben wir weder etwas real geändert, noch etwas real zerstört, wir haben nur das fehlerhafte Design des Systems benutzt.” Die Entwickler haben lediglich eine Schwachstelle in einer JavaScript-Bibliothek ausgenutzt. Es wurde vorgetäuscht, den Wunsch des Nutzers nicht richtig verstanden zu haben und müsse deshalb noch einmal nachfragen. Da die Nachfrage ausblieb, gab Echo folglich nur Stille aus und wartete erneut auf eine Reaktion des Nutzers.

Checkmarx hat die Ergebnisse Amazon mitgeteilt und das Unternehmen schloss die Sicherheitslücke bereits. Der Konzern hat das Problem behoben, indem es mehrere Funktionen optimiert hat, so Checkmarx. Yalon ist davon überzeugt: “Wenn ein großer Hersteller, wie Amazon, für solche Schwachstellen verantwortlich ist, die in IoT-Produkten ausgenutzt werden können, ist dies ein “Weckruf” für IoT-Hersteller, zumal viele IoT-Produkte ohne entsprechende Sicherheitsvorkehrungen ausgeliefert werden.” Als Anwender muss man folglich damit rechnen, dass weitere Sicherheitslücken dieser oder auch anderer Art in dem oder ähnlichen Systemen enthalten sein können. Wer Amazon Echo oder andere smarte Güter im Hause hat, sollte sich besser darauf einstellen, dass die Möglichkeit besteht, jederzeit abgehört werden zu können.

Bildquelle: GraziBass, thx! (CC0 Public Domain)

Related Post

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.