若何识别AI安然风险?中国工程院院士邬江兴:尽量避免运用单一模型要交叉验证_模子_数据
参展者登上自行车开始骑行,此时心率计、功率计、踏频器平分离采集数据并上传,屏幕上实时显示骑行间隔、速率、心率、踏频等各种隐私数据……
这是在5月17日至19日举行的2024年第十二届西湖论剑•数字安全大会数字安全培植成果展上的一幕。该展位事情职员向先容:“我们通过这种形式来展示数据分类分级的过程,以及在传输中如何借助大模型检测潜在的数据泄露、恶意攻击等威胁。”
近一段韶光以来,以大模型为代表的AI(人工智能)技能持续火爆,在惊喜于大模型的“聪明能干”时,很多人也开始模糊担忧:当我们在跟大模型对话时,会不会造成个人信息或者商业机密的透露?AI在带来便捷与红利的同时,还会带来哪些安全方面的寻衅?我们又该当如何应对?
带着这些问题,《逐日经济***》在大会期间采访了包括院士、专家学者、网络安全头部企业在内的多位业界人士。
大会现场 图片来源:每经 张蕊 摄
寻衅:数据安全问题日益凸显
随着大模型和天生式AI的兴起,数据安全问题日益凸显。
“一旦交互,肯定会有数据泄露的风险。比如你的位置、个人喜好会在不经意间被网络。”浙江大学打算机科学与技能学院副教授、杭州市人工智能学会副理事长金小刚接管《逐日经济***》采访时说:“我们利用大模型的办法是跟它对话,网络数据是肯定存在的,这就须要大家最好不去利用信誉不好的企业平台。”
中国科学技能大学公共事务学院、网络空间安全学院教授左晓栋在接管《逐日经济***》采访时表示:“当前,对天生式AI的安全关怀是多方面的,包括意识形态安全和数据安全等。”
他举例说,在数据安全方面,天生式AI要依赖数据来演习,但数据如果被污染了怎么办?此外,人工智能在演习中有时要用到个人信息,乃至是商业秘密,干系方的权柄该怎么担保?个人是不是有信息权柄保护方面的诉求?
意识形态安全方面,天生结果是否符合法律法规的哀求?这些数据的利用是否合法?这些也是大家密切关注的。
谈及大模型在数据处理、剖析、天生中可能带来的数据透露、滥用等风险,科技部网络空间安全2030操持专家组成员、教诲部信息技能新工科同盟网络空间安全工委会主任委员、俄罗斯国家工程院外籍院士胡瑞敏对每经提到了三大安全隐患:数据隐私,包括数据透露;模型挟制;内容的安全以及合规合法和安全审计问题。
“这就哀求安全技能必须跟进,并且和大模型有机结合。”胡瑞敏说,据他理解,海内很多单位已经在开展这方面事情。
风险:“黑模型”已经涌现
除了演习、利用大模型带来的安全风险,不法分子还会利用AI深度假造行骗。事实上,深度假造技能早已涌现,最范例的便是AI换脸。
浙江垦丁状师事务所联合创始人欧阳昆泼在接管《逐日经济***》采访时表示,在AI时期,深度假造技能的滥用使图片、***的真伪越来越难鉴别。“深度假造现在已经产生了很多刑事案件。”
不仅如此,现在已经涌现了“黑模型”——基于一些“黑灰产”数据演习出来的大模型,专门用于诱骗、盗取隐私、“钓鱼”等。他举例说,以前要做一个钓鱼软件或者黑客攻击,技能门槛较高,但现在只要输入指令,“黑模型”就可以天生一个钓鱼软件,门槛非常低。
中国电信集团公司原总经理、环球云网宽带协会董事会主席李正茂在大会期间对《逐日经济***》表示:“我们感到现在对电信网络诱骗应对起来比较麻烦,如果AI技能被犯罪分子利用,就会变得更加麻烦。若要依赖第三方帮你甄别,可能还没甄别出来就已经被骗了,这是个大问题,要引起足够重视。”
探索:用AI防控、管理AI成为安全领域的必选项
每经把稳到,多位专家在演讲或受访中都提到安防领域“道高一尺,魔高一丈”,那么以AI对抗AI是否是一个出路?
对此,中国工程院院士邬江兴对《逐日经济***》表示:“同一个模型,不能自己考验自己,但是可以用别的AI模型来考验你的AI模型。”
安恒信息董事长范渊在接管《逐日经济***》采访时表示,随着AI技能的发展,威胁也愈发凸显。“以AI对AI、以AI管AI是数字管理的一定趋势。AI让网络攻击的门槛更低,更难以戒备。用AI来防控和管理AI,正在成为安全领域的必选项。”
范渊提到,现在很多地方开放公共数据去演习和支持人工智能家当,但同时又很担心会带来数据和隐私的透露。基于机密打算的大模型演习与推理,让这些问题得以办理。
他还提到,在内容安全方面,也有很多大模型的注入,内容的输入、输出安全,都是非常具有寻衅的部分,数据安全、模型安全、运用安全,这些都是让人工智能更安全的主要部分。“一方面是如何及时创造与阻断虚假内容;另一方面是防止陵犯知识产权、敏感数据透露以及如何防御提示词的注入、提示词的绕过等。”
AI还可以提升安全问题的办理效率。范渊举例说,之前600人/天的数据分类分级项目,结合AI大模型“恒脑”知识库、干系语义识别能力、关联推理能力,以及站在业务视角的字段理解与注释,可以帮忙人工快速决策判断,末了只用20人/天就完成了,效率提升30倍。
范渊坦言,也有很多顽疾始终没有办理。“产品不足、做事来凑,海量告警数据须要靠海量的人去办理。”
“但是AI为这个行业、为数字化培植带来了巨大变革。”范渊直言,AI可以把几百万个告警数量减少到几万个,从几万个当中智能甄别哪些不构成威胁或不须要处理,办理了误报、待优化的内容,以及分辨可防御的、已经防御完成的告警,末了只留下少量告警须要人工研判,这是人力可处理的。
不过,在金小刚看来,AI永久是工具,终极起浸染的还是人。“在安全问题上我永久主见创新才是真正办理问题的方法。”
应对:多维度、多种AI系统交叉印证
对付AI带来的安全风险,我们如何应对?
邬江兴对每经表示,AI目前在科学上具有不可阐明性,我们没办法对它的数学、物理性子作出阐明,这是它基本事理上的毛病,以是很多人想利用这种毛病进行不法行为。
“我们现在有个办理办法,便是通过基于内平生安的AI运用系统来办理。”邬江兴说,这种AI运用系统是多维度、多种AI系统的交叉印证,不法分子在某个AI系统上做了手脚,在交叉印证中就会被创造。
“任何人在某一个模型、某一个数据上做手脚是没用的,它可能对A模型有用,但对B模型没用,以是我们用交叉印证来验证。”邬江兴说,就像盲人摸象一样,一个人摸,可能认为象是圆柱体,但是多角度结合起来看才知道象是什么样子。局部的问题我们看不清楚,如果是多个维度看就能看清问题了。
邬江兴演讲 图片来源:每经 张蕊 摄
对付不法分子借助AI工具诱骗的行为,邬江兴表示,AI的特异性决定了不法分子可以用某一个模型诱骗,但放在其余的模型下可能就不管用,就像如果不法分子进行黑客攻击,他可以攻击一个模型,但不能同时攻击多个模型。“以是我们要用多样性印证。”
邬江兴反复强调在运用中只管即便避免利用单一模型,单一模型如果是在“不苟言笑地胡说八道”,利用者是不能判断的,但是如果其他模型也是这样的结果,利用者就可以大致有个判断。
“我们不能机会主义地去用那些不屈安的AI系统,但也不能空想主义地去用绝对安全的AI系统,由于不可能绝对安全。”邬江兴说,这中间怎么权衡?便是要用多样性来担保。利用几种范例的模型,相互之间进行印证。
对付AI,尤其是深度假造带来的安全风险,胡瑞敏认为,首先要对智能技能运用做一定约束,要实现可信的智能,对模型的安全等都要进行有效监管;其次,要提升深度假造的检测技能,该当有全局布局,确保深度假造的风险可控。
这些鉴别技能普通人是否易得?胡瑞敏表示,我们有很多深度假造的鉴别技能,很随意马虎做成工具为大众所利用。“当然,由于智能技能发展非常快,也越来越成熟,这也给鉴别技能提出了新的哀求。”
逐日经济***
本文系作者个人观点,不代表本站立场,转载请注明出处!