人工智能面临十大年夜安然威胁_互联网_揣摸
近日,应欧盟和美国政府的哀求,可信AI研究和咨询专业公司Adversa揭橥了业界首个全面的人工智能安全性和可信度研究报告,该报告还结合了Gartner的干系预测以及最近对AI的对抗性攻击事宜。Adversa顾问委员会前Gartner剖析师Oliver Rochford指出:建立对机器学习安全性的信赖至关主要。我们哀求人们去相信AI的黑匣子(这很困难),为了使AI革命成功,我们必须建立信赖……AI面临的安全风险太大,同时收益也很大。Adversa的CTO Eugene Neelou表示:“为了提高可信AI领域的安全意识,一年多前我们启动了一个项目,以剖析学术、行业和政府过去十年的发展情形。结果令人木鸡之呆,受测AI系统普遍存在安全性和偏差问题,以及缺少适当的防御方法,但人们对AI安全的兴趣呈指数增长。
企业应紧密跟踪最新AI威胁,履行AI安全意识操持,并保护其AI开拓生命周期,最主要的是从现在开始做起。”报告显示:AI领域的安全现状非常糟糕;过去两年AI安全研究论文呈现爆炸式增长;美国、中国、欧洲在可信AI研究领域竞争激烈,中国正在加速反超;AI人工智能领域面临十大安全威胁。以下为报告中的部分亮点数据,安全牛整理如下:
现实中的AI安全事宜正在快速增长:在汽车、生物识别、机器人技能和互联网行业中,现实天下中的AI安全事宜正在快速增长。作为AI的早期采取者,最受关注的行业是互联网(23%)、网络安全(17%)、生物识别技能(16%)和自治(13%)。
AI安全研究论文爆炸式增长:
过去两年中,政府、学术界和工业界发布的AI安全性方面的研究论文多达3500篇,超过过去二十年的总和。美国、中国、欧盟之间的激烈竞争估量将在可信AI竞赛中连续下去:美国揭橥了47%的研究论文,但中国势头强劲。
AI还没有为黑客攻击做好准备:人工智能行业对付现实天下的黑客攻击还没有做好充分的准备,60种最常用的机器学习(ML)模型均匀至少有一个安全漏洞。
最多被攻击者针对的AI技能领域是打算机视觉:
最多被针对的AI领域是打算机视觉(65%),其次是剖析、措辞和自治系统。
图像、文本和记录是最随意马虎遭受攻击的AI数据集:
图像分类和人脸识别最常被攻击的AI运用:
互联网、网络安全、生物识别和汽车行业是AI网络安全问题的重灾区:
AI面临十大安全威胁:
1.绕过攻击(通过对抗性样本操纵AI决策和结果)81%
2.毒化攻击(注入恶意数据降落AI系统可靠性和精确度)6.8%
3.推断攻击(推断特天命据样本是否被用于AI演习)3.5%
4.后门攻击2.3%
5.模型抽取攻击(通过恶意查询命令暴露AI算法细节)1.9%
6.归属推断攻击1.3%
7.木马攻击1.2%
8.模型逆转攻击(通过恶意查询获取的公共输出数据推断输入数据)1.2%
9.反叛印攻击(绕过AI系统对版权和真实性的检测)0.6%
10.重编程攻击(改变AI模型用于造孽用场)0.2%
参考资料:略
本文系作者个人观点,不代表本站立场,转载请注明出处!