Zavřít reklamu

Produkty z dílny Applu jsou již řadu let považovány za jedny z nejbezpečnějších, ne-li nejbezpečnější na světě. Bez problému totiž odolávají drtivé většině jakýchkoliv útoků snažících se jejich zabezpečení prolomit. Ve všech směrech však Apple dokonalý není, což nyní potvrdily i testy bezpečnostních expertů zaměřené na hlasové asistenty.

Pokud jste si dosud mysleli, že chytří pomocníci v podobě Siri, Alexy nebo Google Assistanta budou útokům, jakým čelí například smartphony nebo počítače, ušetřeny, potom jste na omylu. Tým výzkumníků totiž přišel na to, že prolomit a ovládat hlasového asistenta není nic složitého ani drahého. Vlastně vám k tomu stačí pizoelektrický převodník za nějakých 5 dolarů, tedy 120 korun, který umí generovat napětí a vysílat speciální druh ultrazvukových vln, které jsou pro člověka nezaznamenatelné. Ty se dostanou i přes materiální objekty, jakým je například stůl, tenká zeď nebo další překážky v dráze vlny. SurfingAttack, jak je útok přezdíván, může hlasového asistenta na dálku aktivovat a interagovat s ním stejně, jako by to dělal dotyčný uživatel. Takto lze třeba Siri poručit, aby někomu zavolala, použila fotoaparát či udělala jiný úkon ve své kompetenci.

Tímto způsobem je možné na dálku také snížit hlasitost Siri, aby se nevzbudilo podezření uživatele, a pomocí druhého zařízení nahrávat a zaznamenávat odpovědi. Dohromady výzkumníci napadli 17 různých zařízení a v drtivé většině případů bylo prolomení úspěšné. K útoku jsou náchylné jak Pixely od Googlu, tak série Galaxy od Samsungu a pochopitelně iPhony ze stáje Applu. Napadení nakonec podlehli všichni hlasoví asistenti, včetně Siri, Google Assistanta a Bixbyho. S čistým štítem z testu vyvázl jen Huawei Mate 9 a Samsung Galaxy Note 10+, avšak nikoliv z důvodu nadměrného zabezpečení, nýbrž díky materiálu, z něhož jsou telefony vyrobeny. Napadnout zařízení nicméně není nic složitého, metoda totiž spočívá ve využití nelineární funkce, kterou mikroelektronika zabudovaná v mikrofonu telefonu disponuje. Nutno však zmínit, že technika nefunguje na reproduktory jako je Amazon Echo nebo Google Home, vztahuje se výhradně na telefony a další přenosná zařízení. Zároveň platí, že pokud je Siri deaktivovaná, je samozřejmě nenapadnutelná. Pokud je pak aktivovaná, podobných věcí se lze vyvarovat velmi jednoduše deaktivací možnosti hlasové aktivace při zamčeném telefonu. Při odemčeném telefonu si pak útoku uživatel zpravidla všimne.

Dnes nejčtenější

.