目击为实?AI变声换脸诱骗来了!_德律风_换脸
“一键换脸,和你爱的明星小哥哥合影”
“大叔秒变萝莉御姐网红音”
AI变声换脸运用玩法多样
你有没有考试测验过
须要把稳的是骗子也盯上了AI技能利用它玩起了“真假美猴王”
AI诱骗常用手腕
level1 合成声音
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用假造的声音骗过对方。
案例
2020年12月,某公司财务小王接到领导电话,哀求急速给供应商转款2万元,并将转账信息以邮件形式发送,转款情由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后创造被骗。
level2 AI换脸
骗子首先剖析"大众发布在网上的各种信息,根据所要履行的骗术,通过AI技能筛选目标人群。在***通话中利用AI换脸,骗取信任。
案例
近日,小李的大学同学通过***跟她借钱。对方打过来一段四五秒的***电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时觉得非常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段***很有可能是被人换了脸。
如何戒备?
面对利用AI人工智能等新型手段的诱骗,我们要牢记以下几点:
多重验证,确认身份
目前,AI换脸难以肉眼区分。因此,在涉及钱款时,只管即便通过电话讯问详细信息,确认对方是否为本人。
保护信息,避免诱惑
加强个人信息保护意识,对付不明平台发来的广告、中奖、交友等链接提高当心,不随意填写个人信息,以免被骗子“精准围猎”。
相互提示,共同预防
做好家中老人的宣扬戒备事情。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
图片 | 网络截图
素材 | 上海网警
编辑 | 蔡虹
本文系作者个人观点,不代表本站立场,转载请注明出处!