Versteckte Kommandos Vorsicht: Alexa, Siri und Google Assistant können gehackt werden

Von Christian Ströhl

Forscher in den USA und China haben herausgefunden, dass sich digitale Sprachassistenten per verstecktem Sprachbefehl hacken lassen. Foto: dpaForscher in den USA und China haben herausgefunden, dass sich digitale Sprachassistenten per verstecktem Sprachbefehl hacken lassen. Foto: dpa

Hamburg. Kriminelle können sich in Alexa, Siri oder Googles Assistant hacken. Das berichtet die New York Times.

Digitale Assistenten wie Amazons Alexa, Apples Siri oder Googles Assistant sind aus vielen Haushalten nicht mehr weg zu denken. Per Sprachbefehl lassen sich Texte vorlesen, Wecker einstellen oder Lieder abspielen. Doch Vorsicht: Forscher aus China und den USA haben nun herausgefunden, dass sich Siri und Co. hacken lassen – per lautlosen Kommandos.

Versteckte Befehle

Zwei Jahre lang haben die Forscher der Universitäten von Kalifornien, Berkeley und Georgetown getüftelt und bewiesen, dass sich die Künstliche Intelligenz auf Smartphones oder Lautsprechern mit versteckten Befehlen aktivieren lassen. In den falschen Händen – so heißt es in dem Bericht – könnte die Technologie dazu genutzt werden, Türen zu entsperren, Geld zu überweisen oder online einzukaufen.

Weiterlesen: Googles Sprachassistent kann bald am Telefon Termine machen

Die versteckten Kommandos speisten die Forscher in Youtube-Videos ein – nicht wahrnehmbar für das menschliche Ohr. Die Tüftler aus Berkeley gingen in diesem Monat noch weiter: Sie konnten die gefährlichen Kommandos sogar in Sprachnachrichten verstecken. Das bedeutet, dass Nutzer, die sich gerade eine Sprachnachricht eines Bekannten anhören, nicht mitbekommen würden, dass Hacker sich währenddessen in das Gerät einschalten, um etwa online Geld zu überweisen.