让AI用户更有安然感_人工智能_用户
的确,险些所有形式的AI都须要大量演习数据。要想让AI更加“懂你”,就必须网络和剖析你的个人信息,这是AI深度学习的原材料,也是其“思考”和“决策”的依据。
这引发了公众对个人信息安全的担忧。就拿一个常见征象来说,当你第一次打开一款APP时,总会弹出一份冗长的“数据网络和隐私保护协议”。在绝大多数用户看来,完全读完这份协议是一道难题,遑论读懂。然而,如果你不点“已完成阅读并赞许”,就无法利用APP。“说是给了用户选择权,但真正的选项只有一个,这不是霸王条款吗?”笔者听到过不少这样的抱怨。
大量调查显示,多数用户在签署各种智能平台网络数据的“赞许书”时,并不清楚自己在赞许什么。随着AI技能被不断运用于各种手机APP,各大互联网平台纷纭更新隐私保护政策,奉告用户将利用其个人信息以支持人工智能的开拓和优化。对用户信息的网络都包括什么呢?有人作了一些梳理,涵盖通讯录、相册、定位等,乃至我们的声音、指纹、脸部特色也在网罗之列。
这还只限于手机运用处景。有人对未来信息透露风险作出更大胆的预测:只要你进入阛阓、饭店等商业公开场合,你的脸,你的声音,你的衣服颜色,你的兴趣爱好和行为习气,都将暴露在空气中。在AI眼里,你便是一个行走的“数据群”。试想,一旦这种环境变为现实,将给个人信息安全带来多大的隐患?
从环球范围来看,人工智能陵犯隐私的案例已有不少。例如,一批匿名人士曾向天下最大的一家人工智能巨子发起集体诉讼,责怪它从互联网上盗取和挪用了大量个人数据和信息来演习AI工具。起诉书称其“在用户不知情的情形下,利用这些‘盗取’来的信息”。不久前,北京互联网法院宣判了中国首例AI声音侵权案,原告因其声音被AI技能模拟并商业化利用而获得胜诉。
中国有句老话:“晴带雨伞,饱带干粮。”只有未雨绸缪,才能为AI长远发展奠定坚实根本。办理AI信息保护问题的关键,是如何合理规范利用用户数据。普通来讲,便是让AI技能既在供应智能做事方面“更懂你”,也要在个人信息识别上“不懂你”,节制两者之间的平衡。
在AI做事“更懂你”方面,业界已经做了不少努力;在让AI“不懂你”方面,还要连续深化探索。目前,中国已出台了《天生式人工智能做事管理暂行办法》等规定,明确提出AI运用必须保护商业秘密、个人隐私等不受陵犯。同时,进一步从做事规范和法律任务等详细方面对天生式人工智能做事作了规范。下一步,应连续在顶层设计上跟进AI技能发展,确立信息数据的网络、利用、肃清等一系列详细条款。在此根本上,还要在提升用户素养高下功夫。社会须要遍及各种信息保护的基本知识,提升用户的安全意识。
有这么一个故事:一个年轻人和一位父老过桥,年轻人问,我们走过期并没有扶桥两旁的护栏,要护栏有什么用呢?父老说,没有护栏,我们还能如此安然地从桥上经由吗?护栏给我们的不仅是安全,更是安全感。
当下的AI行业,正须要这样的“护栏”。(卢泽华)
来源: 公民日报外洋版
本文系作者个人观点,不代表本站立场,转载请注明出处!