如何运用对抗性攻击来攻击语音识别系统? (对抗性条件法)
整理分享如何运用对抗性攻击来攻击语音识别系统? (对抗性条件法),希望有所帮助,仅作参考,欢迎阅读内容。
内容相关其他词:对抗性训练的定义,对抗性问题定义,对抗的方法,对抗性问题定义,对抗性问题定义,对抗性条件作用的例子,对抗性条件作用的例子,对抗性活动有哪些,内容如对您有帮助,希望把内容链接给更多的朋友!
如何运用对抗性攻击来攻击语音识别* 图1 假设你在房间的角落放一台低声嗡嗡作响的设备就能阻碍NSA*你的私人谈话。你会觉得这是从来自科幻小说吗?其实这项技术不久就会实现。 今年1月,伯克利人工智能研究人员NicholasCarlini和DavidWagner发明了一种针对语音识别AI的新型攻击方式。只需增加一些细微的噪音,这项攻击就可以欺骗语音识别*使它产生任何攻击者想要的输出。 虽然本文是首次提出针对语音识别*的攻击,但也有其他例如针对图像识别模型*的攻击(这个问题已经得到了不少研究,具体技术手段可以参考NIPS图像识别攻防对抗总结),这些都表明深度学习算法存在严重的安全漏洞。深度学习为什么不安全? 年,Szegedy等人引入了第一个对抗性样本,即对人类来说看似正常的输入,但却可以欺骗*从而使它输出错误预测。Szegedy的*介绍了一种针对图像识别*的攻击方式,该*通过在图片(蜗牛图片)中添加少量专门规划的噪声,添加完的新图像对于人来说并未改变,但增加的噪声可能会诱使图像识别模型将蜗牛分类为完全不一样的对象(比如手套)。进一步的研究发现,对抗性攻击的威胁普遍存在:对抗性样本在现实世界中也能奏效,涉及的改动大小最小可以只有1个像素;而且各种各样内容的图像都可以施加对抗性攻击。如何运用对抗性攻击来攻击语音识别* 图2 这些攻击的例子就是深度学习的阿基里斯之踵。试想如果仅仅通过在停车标志上贴上贴纸就可能*自动驾驶车辆的安全行驶,那我们还怎么相信自动驾驶技术?因此,如果我们想要在一些关键任务中安全运用深度学习技术,那么我们就需要提前了解这些弱点还要知道如何防范这些弱点。对抗攻击的两种形式 对抗攻击分为针对性攻击和非针对性攻击两种形式。 非针对性对抗攻击仅仅是让模型做出错误的预测,对于错误类型却不做干预。以语音识别为例,通常攻击完产生的错误结果都是无害的,比如把「I'mtakingawalkinCentralPark」转变为「IamtakingawalkinCentralPark」。 针对性对抗攻击则危险的多,因为这种攻击通常会诱导模型产生攻击者想要的错误。例如黑客只需在「我*公园散步」的音频中加入一些难以察觉的噪音,模型就会将该音频转换为随机乱码,静音,甚至像「立即打!」这样的句子。如何运用对抗性攻击来攻击语音识别* 图3对抗攻击算法 Carlini和Wagner的算法针对语音识别模型的进行了第一次针对性对抗攻击。它通过生成原始音频的「基线」失真噪音来欺骗模型,然后运用定制的损失函数来缩小失真直到无法听到。 基线失真是通过标准对抗攻击生成的,可以将其视为监督学习任务的变体。在监督学习中,输入数据保持不变,而模型通过更新使做出正确预测的可能性最大化。然而,在针对性对抗攻击中,模型保持不变,通过更新输入数据使出现特定错误预测的概率最大化。因此,监督学习可以生成一个高效转录音频的模型,而对抗性攻击则高效的生成可以欺骗模型的输入音频样本。 但是,我们如何计算模型输出某种分类的概率呢?如何运用对抗性攻击来攻击语音识别* 图4 通过算法推导出此音频片段中所说的词语并不容易。难点有如每个单词从哪里开始和哪里结束? 在语音识别中,正确分类的概率是运用连接主义时空分类(CTC)损失函数计算的。规划CTC损失函数的关键出发点是界定音频边界很困难:与通常由空格分隔的书面语言不一样,音频数据以连续波形的形式存在。因为词汇波形之间可能存在许多「特征」,所以某个句子的正确识别率很难最大化。CTC通过计算所有可能的输出中「期望输出」的总概率来搞定这个问题。Carlini和Wagner做出的改进 尽管这种初始基线攻击能够成功的欺骗目标模型,但人们也容易发觉音频被改动过。这是因为CTC损耗优化器倾向于在已经骗过模型的音频片段中添加不必要的失真,而不是专注于目标模型更难欺骗的部分。如何运用对抗性攻击来攻击语音识别* 图5 Carlini&Wagner的自定义损失函数。π是已计算特征,δ是已学习对抗失真,τ是最大可接受音量,ci是一个用于最小化失真并进一步欺骗模型的参数,Li是第i个输出令牌的损失。 由于针对性攻击的最薄弱环节直接决定了攻击的强力与否,Carlini和Wagner引入了一个定制的损失函数,该函数会惩罚最强攻击部分的不必要的失真。以基线失真为始,该算*迭代地最小化该函数,在保持失真的对抗性的同时慢慢降低其音量,直到人听不到为止。最终的结果是音频样本听起来与原始样本完全相同,但攻击者可以使目标语音识别模型产生任意他想要的结果。现实世界中的对抗攻击 尽管语音攻击令人担忧,但相比其它使用类型中的攻击,语音识别攻击可能并不那么危险。例如,不像自动驾驶中的计算机视觉技术,语音识别很少成为关键使用的核心控制点。并且语音激活控件可以有秒左右的时间冗余,这段时间完全可以用来正确理解命令然后再去执行。 另外,对抗性攻击理论上可以用于确保隐私。比如制造一个设备,这个设备通过发出柔和的背景噪音使监控*系将周围的对话误认为完全沉默。即使*者设法记录您的对话,但要从PB级的非结构化原始音频搜索出有用信息,还需要将音频自动转换为书面文字,这些对抗性攻击旨在*这一转化过程。 不过现在还并没有大功告成。Carlini&Wagner的攻击在运用扬声器播放时会失效,因为扬声器会扭曲攻击噪音的模式。另外,针对语音转文本模型的攻击必须根据每段音频进行定制,这个过程还不能实时完成。回顾过去,研究者们只花费了几年的时间就将Szegedy的初始图像攻击发展的如此强大,试想如果针对语音的对抗性攻击的发展速度也这么快,那么Carlini和Wagner的研究成果着实值得关心。 对抗性攻击可能会利用深度学习的算法漏洞进行*,引发诸如自动驾驶等使用的安全问题,但如上文所述,针对音频的对抗性攻击对于隐私保护也有积极意义。