语音助手的风险隐患,以及如何加强其安全性
2019年02月18日 由 浅浅 发表
697388
0
语音助手让我们的生活更轻松,但安全专家认为它带来了一些独特的侵入性风险。自今年年初以来,多名Nest安全摄像头用户报告了一些陌生人入侵并向Alexa发出语音命令,虚假宣布朝鲜导弹攻击,直接与他们的孩子对话,打开家用恒温器到90度,以及大声辱骂……这些事件令人震惊,但语音助手无声妥协可能更具破坏性。
最近将Nest所有者谷歌将谷歌助手集成到Nest控制中心,将这些攻击归咎于用户密码薄弱和缺乏双重身份验证。但即使是具有强大安全性的语音助手也可能容易受到更隐蔽的黑客攻击。在过去几年中,美国,中国和德国大学的研究人员成功地使用了隐藏的音频文件,使像Siri和Alexa这样的AI语音助手遵循他们的命令。
这些调查结果强调了黑客和欺诈者可能会劫持独立式语音助手设备以及手机上的语音命令应用程序,以打开网站,购买,甚至关闭警报系统和解锁门。以下概述了此类攻击的工作原理以及可能产生的后果。
语音识别AI可以处理人类无法听到的音频
这个安全问题的核心是,为语音助理提供动力的神经网络比人类有更好的“听觉”。例如,人们无法识别餐厅背景噪音中的每一个声音,但AI可以。AI语音识别工具还可以处理人们可以听到的范围之外的音频频率,并且许多扬声器和智能手机麦克风可以接收这些频率。
这些事实为黑客提供了至少两种向语音助理发出静默命令的选择。第一个是在白噪声中隐藏恶意命令,就像2016年伯克利和乔治城的学生所做的那样。据《纽约时报》报道,学生们可以通过在线视频和扬声器播放隐藏的语音指令,让语音控制设备打开网站并切换到飞行模式。
这种攻击的另一个例子来自德国波鸿鲁尔大学。9月,他们报告说,在相同频率的更大声音背景下编码命令取得了成功。在他们的简短演示视频中,人类和广受欢迎的语音识别工具包Kaldi都能听到一个女人在阅读商业新闻。然而,嵌入在背景数据中的命令只有Kaldi能识别:关闭安全摄像头,打开前门。
专家表示,理论上,这种方法可以大规模使用,通过应用程序或广播,窃取个人数据或进行欺诈性购买。对于零售商来说,这类购买可能很难进行筛选,因为它们来自一个受信任的设备,并使用有效的支付信息。
另一种方法是通过在人类听觉范围之外的频率创建和播放命令,浙江大学的研究人员称之为 海豚攻击。这种类型的攻击依赖于超声波传输,这意味着攻击者必须靠近目标设备才能使其工作。
但是研究人员已经使用这种技术来锁定iPhone,以便根据听不见的命令拨打电话。他们表示,这种攻击还可以获得语音控制设备来拍照,发送短信和访问网站。这可能导致恶意软件,个人数据被盗,欺诈性购买以及可能敲诈勒索或敲诈勒索。
科技公司如何防范听不到的命令威胁
亚马逊,谷歌和苹果公司一直在努力改进语音助理,尽管他们通常不会深入研究技术细节。浙江大学研究人员提出的一篇论文建议重新设计设备麦克风,以限制人类听不到的超声波输入范围,或通过识别和取消携带它们的特定信号来阻止听不见的命令。研究人员还建议利用机器学习的力量来识别最有可能用于听不见的命令攻击的频率,并了解听不见和声音命令之间的差异。
除了这些短期补救措施,科学家和立法者还需要解决语音识别技术的安全性和有效性方面的长期挑战。目前在美国,语音数据和隐私权没有国家立法或监管框架。加州是第一个通过限制消费者语音数据销售和数据挖掘的法律的州,但它仅适用于通过智能电视收集的语音数据。
语音识别用例的数量随着物联网的增长而增长,该领域中用户数量的增加,语音数据泄露的风险也将上升。这增加了记录消费者语音数据的欺诈行为的可能性。共享音频文件比克隆信用卡或使用硅胶复制某人的指纹更加容易和快捷,这意味着语音数据可能对有组织的犯罪分子有价值。
欺诈预防专业人员需要建立和维护清洁的双向消费者语音数据数据库,以确保公司能够识别合法的客户联系人。并且商家可能需要在他们筛选订单时分析声音以获取先前欺诈事件的链接。
如何保护语音设备
目前,语音命令劫持的危险似乎主要是理论上和孤立的,但最近的过去告诉我们,欺诈者很快适应新技术。明智的做法是遵循可以保护设备免受语音黑客攻击的安全措施,并以其他方式保护您的数据。
设置强大的唯一的密码。不使用时,请勿将手机解锁。PIN可以保护语音助手完成涉及家庭安全、个人数据、财务或健康记录等任务,或者干脆不把这些信息与你的语音命令设备连接起来。
对听不见的语音命令及其带来的风险的研究仍然相对较新,安全和科技行业已经发现,每一次新的进步都为黑客提供了新的机会。随着越来越多的研究人员阐明语音识别AI中的弱点,有机会使其产品更加安全。与此同时,我们每个人都应该保护我们的设备并辨别我们与Alexa,Siri,Cortana和其他语音助手共享的信息类型。