Versteckte Kommandos : Vorsicht: Alexa, Siri und Google Assistant können gehackt werden

Forscher in den USA und China haben herausgefunden, dass sich digitale Sprachassistenten per verstecktem Sprachbefehl hacken lassen.

Forscher in den USA und China haben herausgefunden, dass sich digitale Sprachassistenten per verstecktem Sprachbefehl hacken lassen.

Kriminelle können sich in Alexa, Siri oder Googles Assistant hacken. Das berichtet die New York Times.

shz.de von
11. Mai 2018, 10:35 Uhr

Hamburg | Digitale Assistenten wie Amazons Alexa, Apples Siri oder Googles Assistant sind aus vielen Haushalten nicht mehr weg zu denken. Per Sprachbefehl lassen sich Texte vorlesen, Wecker einstellen oder Lieder abspielen. Doch Vorsicht: Forscher aus China und den USA haben nun herausgefunden, dass sich Siri und Co. hacken lassen – per lautlosen Kommandos.

Versteckte Befehle

Zwei Jahre lang haben die Forscher der Universitäten von Kalifornien, Berkeley und Georgetown getüftelt und bewiesen, dass sich die Künstliche Intelligenz auf Smartphones oder Lautsprechern mit versteckten Befehlen aktivieren lassen. In den falschen Händen – so heißt es in dem Bericht – könnte die Technologie dazu genutzt werden, Türen zu entsperren, Geld zu überweisen oder online einzukaufen.

Die versteckten Kommandos speisten die Forscher in Youtube-Videos ein – nicht wahrnehmbar für das menschliche Ohr. Die Tüftler aus Berkeley gingen in diesem Monat noch weiter: Sie konnten die gefährlichen Kommandos sogar in Sprachnachrichten verstecken. Das bedeutet, dass Nutzer, die sich gerade eine Sprachnachricht eines Bekannten anhören, nicht mitbekommen würden, dass Hacker sich währenddessen in das Gerät einschalten, um etwa online Geld zu überweisen.

zur Startseite

Diskutieren Sie mit.

Leserkommentare anzeigen