“深度假造”技能(Deepfake)常日指利用人工智能技能实时假造面部表情、人声,并合成高仿真度的***与音频。
当前,利用Deepfake 进行语音诱骗正在成为公司诱骗的新型手段之一。

申报称人工智能语音诱骗兴起运用公开音频合成高管声音_音频_语音 文字写作

当地韶光7月27日,美国科技媒体The Verge宣布称,网络诱骗犯正在利用Deepfake仿制公司高管的语音,合针言音邮件发送年夜公司员工,对大型公司进行经济诱骗。

7月19日,总部位于美国弗吉尼亚州的安全咨询公司NISOS发布了一份题为《合成音频Deepfakes的兴起》(The Rise of Synthetic Audio Deepfakes)的白皮书,在个中调查并剖析了一家科技公司遭遇Deepfake音频诱骗的事宜,并向大众提出预防该类诱骗的建议。

白皮书称,敲诈者将一份模拟某公司CEO语音的Deepfake音频以邮件形式发送给公司员工,哀求员工“立即供应帮助以完成紧急商业交易”。

NISOS利用音频频谱工具对该语音邮件的Deepfake音频进行了剖析。
他们创造,这段Deepfake语音的频谱图有峰值反复涌现且音频有不连贯的特点。
经由与真实人声音频的比对,NISOS称,相较于合成音频,真实人声的音高与腔调都更为平滑。

此外,当研究团队放大合成音频的音量时,他们无法监测到背景噪音。
而在真实人声的音频中能够检测微弱的背景噪音。
这进一步表明这段音频是经由人为处理的。

值得光彩的是,这次诱骗并未成功,上述公司员工在收到语音邮件后认为其可疑并将其登记年夜公司的法律部门。
但在此之前,已有诸多利用Deepfake技能进行公司诱骗的案例。

白皮书称,2019年9月,犯罪分子利用语音克隆软件对英国一家能源公司高管的声音进行模拟,该公司的实行董事在接听诱骗电话后将超过24万美元汇入了一个匈牙利账户。
目前,该罪犯仍未被抓获。

2020年2月20日 ,互联网安全专家公司Symantec报告了三起Deepfake音频诱骗案例,犯罪分子通过电话会议、YouTube、社交媒体以及TED演讲得到了公司高管的音频,然后用机器学习技能复制高管的声音,致电财务部门的高等成员哀求紧急汇款。

NISOS把稳到,Deepfake音频创作者为了创建更为逼真的音频,常日须要战胜如下几个成分:捕获险些没有背景噪音的高质量音频;在不须要回电的情形下进行音频传送;以留言的形式避免与音频吸收者实时交谈。

因此,犯罪分子很可能利用VoIP网络电话账号联系攻击工具,并利用语音邮件功能发送合成音频。
VoIP(Voice over Internet Protocol)即基于IP的语音传输,可以经由网络协议(IP)直接与电话进行通话。

随着Deepfakes的创建或购买变得越来越随意马虎,音频、***的合成处理质量不断提高。
NISOS估量,此类电子诱骗将更为普遍。
据The Verge 2020年1月29日的宣布,美国联邦贸易委员会(FTC)在其首个有关音频克隆技能的公开研讨会上,警告了语音克隆技能诱骗案件的危险性。
美国法律部的打算机犯罪和知识产权部门也表示,Deepfakes使犯罪分子能够进行匿名互换,降落了诱骗难度。

如何预防此类语音诱骗? NISOS建议,由于现有的Deepfake技能还无法模拟全体通话过程,当公司员工察觉语音邮件等音频有可疑之处时,可以利用已知号码回拨该发送者进行通话;公司员工也可以针对公司内部信息或某些机器无法轻易回答的问题在通话过程中进行寻衅性提问,以查明通话工具的身份。

任务编辑:李跃群

校正:刘威