人工智能面前无隐私?DPO沙龙纪实:不必将AI隐私问题妖魔化_数据_华为
事实上,不但是人脸识别,一系列人工智能运用已经进入日常生活,由此带来人脸、声纹、指纹等生物特色数据的网络与保护问题。从亚马逊雇人审听智能音箱录音,到微软的人脸数据库涌现未授权照片……各类案例表明,快速发展的人工智能技能,亟待更加清晰的监管准则。
如何应对人工智能带来的数据安全寻衅?若何平衡生物特色数据的保护和利用?在10月24日的第十八期数据保护官沙龙(DPO)上,多位来自一线的技能与法律专家就此进行了磋商。
今年初,华为创始人任正非发出致全体员工的一封信,个中提到,“把网络安全和隐私保护作为公司的最高纲领”。详细到智能产品上,华为如何落实这一纲领?华为隐私专家结合实际案例,以“移动终真个生物特色数据安全”为主题,先容了华为的部分探索与履历。
“以前我们提到终端紧张是指单点设备,现在更多地要考虑设备互联。”华为专家说,随着人工智能技能的逐步成熟,华为的产品与业务也迎来了“全场景聪慧化”的进程。华为终真个计策是“1+8+N”,“1”指智好手机,“8”包括PC、平板、音箱、耳机等等,N则指泛物联网硬件构成的华为生态。
智能设备的发展,带来了更多的数据网络场景。图自网络。万物互联的场景,给安全业务带来了哪些新寻衅?华为专家认为,首当其冲的便是身份认证,个中不仅包括人的身份认证,还包括设备的身份认证。“普通地说,便是我一定要连接到精确的设备上。我不能连接别人的设备,而别人也不能掌握我的设备。”他说。
终端之间要进行数据传输,担保数据传输的安全可信,构成了另一大寻衅。“比如说手机投屏,手机的受众一样平常是机主,但大屏的受众可能有很多。什么样的数据能投到大屏上?什么样的数据不能?什么数据须要得到消费者授权后才能投屏?”华为专家举例说,如果一名企业员工在小组会议时投屏分享资料,手机却溘然弹出“应聘回答”的提醒,那么这名员工的隐私与权柄就可能受到侵害。
此外,迅猛发展的物联网生态链,也存在安全风险。华为专家说,华为的智能生态中有很多互助伙伴,第三方设备是否具备足够的数据保护能力、如何对第三方设备进行认证,也是须要考虑的问题。否则,就无法担保全体生态的安全与康健发展。
“实在我们现在面临最难的问题,便是怎么取得社会代价和隐私保护的平衡。过度的隐私保护可能会限定数据流动、抑制潜在的社会代价;反过来又可能陵犯消费者的隐私。”华为专家坦言。
2018年,继“史上最严个人数据保护法”GDPR生效往后,欧洲议会又投票通过了《非个人数据自由流动条例》,旨在促进欧盟境内非个人数据自由流动。在华为专家看来,这一将“个人数据”与“非个人数据”分开的思路,或许能为中国供应参考。
他先容,华为也制订了内部的数据分类分级准则,并在此根本上采纳不同的管理方法。对付个人数据,以最小化网络等为基本原则。如果确实要网络某一类个人数据,一定要按照干系法律法规进行管理,例如取得用户授权、戒备数据透露,等等。
如果没有前辈的技能,数据保护就成了空谈。“我们希望在消费者数据不透露或者假名化、匿名化的情形下,仍旧能够发展业务。”华为专家说,多方打算、联邦学习等技能,已经有了良好的运用案例。包括华为在内,许多企业都在进行干系探索。
近年来,人脸或指纹解锁逐渐成为手机标配,华为也有多款机型支持这类功能,。如何处理人脸等生物特色数据?华为专家先容,除了前述的多种保护方法,华为还采纳了“生物特色数据不上云”方案,将生物特色数据的处理和存储过程放在终端侧,从而降落了数据的透露风险。此外,这些生物特色数据的处理和存储被放进单独的“安全隔离区”,受到高档级的严格保护。
谈到人工智能落地的范例代表,语音助手一定会霸占一席之地。除了数不胜数的搭载语音助手的智好手机,智能音箱也在近两年呈现猛增态势。美国研究公司Strategy Analytics的报告显示,2019年第二季度,环球智能音箱销量达到3030万台,同比增长95.8%。
市场快速发展的同时,语音助手的隐私争议也是一波未平一波又起。就在今年,亚马逊和苹果均被曝出利用人工审听用户录音,引发用户的强烈不满。
亚马逊、苹果等企业屡次因语音助手陷入“窃听”风波。图自网络。语音助手涉及到声纹数据,而对付每一个消费者而言,声纹跟人脸一样具有分外性和敏感性。环绕语音助手的生物特色数据保护,另一位华为专家和小米法务隐私数据合规卖力人朱玲凤从不同角度做了分享。
朱玲凤指出,企业之以是利用人工去标注和剖析用户的语音,实在是为了提高语音识别的准确度。“以人工智能现在的发展水平,根本不能直接自己学会,人工干预是一种一定。企业想发展技能没有错,但是该当尊重用户对隐私的考虑,提升用户的相信感。”
今年8月的人工监听风波之后,苹果宣告默认情形下不再保留Siri交互的录音。同时,Siri利用随机标识符来跟踪数据,六个月后随机标识符和数据之间就取消关联,这意味着用户的身份和数据不会被永久绑定。在系统设置中,用户还可以关闭语音唤醒,让Siri只能通过物理按键唤醒。
朱玲凤认为,以上方法都值得肯定。她提到,亚马逊也有类似实践。亚马逊的语音助手Alexa为用户供应了不同级别的隐私保护设置,如查看语音记录或删除所有录音。
“企业实在是在通过自己的努力让用户信赖语音助手,然后技能才能连续往前走。我们还是希望大企业有所承担,同时也给用户多供应信息和知识,让用户理解技能是怎么实现的,从而提升用户的相信感。”朱玲凤说。
“人工智能是环球都在争抢的计策高地,但现在的情形是,人工智能技能在某种程度上被神话了,而人工智能的隐私问题又被妖魔化了。”华为专家说,结合技能和成本来看,“麦克风窃听”的可行性不高。语音助手运行时,一样平常须要特定的唤醒词才能进入后续操作,比如华为手机的“小艺小艺”或苹果手机的“嘿Siri”。语音助手会监测用户是否说了唤醒词,但这与“窃听”完备是两个观点。监测在用户的终端完成,只检测唤醒词,语音助手不会持续地录音,也不会将用户的所有发言都上传到做事商云端。
谈到语音助手中的个人信息保护,华为专家指出,实在语音助手不仅涉及到用户的声纹数据,还涉及到大量其他的个人数据——如果语音助手要帮用户打电话,就得访问用户的通讯录;要帮用户查询本日的景象,就得知道用户的位置。须针对不同的个人数据、不同的业务场景,给予不同的保护方法。
“比如打电话的业务场景,涉及哪些个人数据和设备权限?我们会列一个清单,确定个中的风险和应对方法。网络哪些数据?是否必须网络?数据来自哪里,怎么收,法律依据是什么?用户赞许之后,数据怎么传输?存储在哪?期限是多久?按照清单去进行梳理,并且对用户做充分的奉告,包括见告他们怎么关闭功能和删除数据。这样的话,我们就可以达到‘用户可控’的目的。”华为专家说,每一个业务动作都会被分解成“很细的点”,有明确的合规标准,以便实行到位。
朱玲凤也谈到,语音助手对个人数据的获取,可能给用户带来隐私担忧。“在未来,语音助手乃至可能比你还更理解你自己。你六点半放工,它就知道你要回家,直接把本日的路况信息发给你。”她认为,语音助手的发展还是离不开隐私保护领域的基石性原则,“最小必要”和“奉告赞许”。
在她看来,企业网络的数据越多,越可能受到不法分子的攻击,内部滥用的风险也更大。以是数据最小化网络本身便是戒备风险的方法。至于奉告和赞许,亚马逊、苹果等企业没有做到充分的奉告,正是其语音助手引发争议的主要缘故原由。不过,事无年夜小的奉告也会导致企业的包袱过重,根据美国联邦贸易委员会的不雅观点,如果数据利用符合用户的合理预期,或者企业有效地进行了去标识化处理,那么就不必僵化地哀求消费者对所有数据网络都做出明确赞许。
人脸识别,是人工智能运用中的又一范例。尤其是在中国,上班签到、论坛安检、手机支付……“刷脸”俨然成为人们的生活日常。然而,人脸作为生物特色数据的分外性,总是激起"大众对安全和隐私的担忧。日前,浙江小学生用照片刷脸打开快递柜的案例,再一次印证了人脸数据透露的风险。一段“人脸识别进教室”、监控学生上课状态的视频展示,则引发了"大众对付人脸数据滥用、陵犯未成年人隐私的质疑。
浙江嘉兴一所小学的学生创造可以用照片在快递柜刷脸取件。图自网络。北京安理状师事务所高等合资人王新锐认为,人脸等生物特色数据具有不可变动的特性,这使得一个人的生物特色数据透露后难以获得救济。“邮箱的密码透露掉了我们可以改,人脸、指纹这些数据没有办法改。如果个体的这些数据被暴露在黑产面前就很恐怖,是没有救援手段的。”他说。
2018年,微软提出了人脸识别研究事情须要遵照的六大原则,个中包括确保消费者知情、明确征得消费者赞许,启用第三方测试人脸识别做事的准确性,由称职的事情职员对人脸识别结果进行审查并做出关键决策等内容。王新锐认为,这些原则值得人脸识别领域的企业参考。
目前,人脸识别在海内被广泛运用与身份认证,而身份认证的场景又可以大致划分为“1:1”和“1:N”。前者是将摄像头现场采集的照片与用户事先注册的照片做比拟,判断是否为同一人,比如机场安检闸机的人证核验。后者则是将现场采集的照片与数据库中的海量照片进行比对,识别涌现场这个人是谁,比如阛阓中的会员识别。
王新锐指出,在实践中,“1:N”面临更大的合规风险。由于“1:N”的人脸识别意味着后台有一个巨大的数据库,通过数据库不仅可能知道一个人是谁,还可能知道他去过哪里、做过什么。一旦数据库透露,就会带来一系列问题。
“人脸识别就像潘多拉的盒子,我们要更谨慎地去对待。”王新锐说。
安然科技资深办理方案专家赵起超指出,人脸识别涉及到多种维度和种类的数据,除了人脸这生平物特色数据,还可能涉及数据主体的地理位置、轨迹数据,乃至是企业的员工管理数据。不同的数据,保护哀求也不同。在刑法、网络安全法等既有法律的框架下,行业也在逐步制订管理标准和规范。
“安然内部有很严格的审计机制,比如说我们要基于人脸识别算法去做一套新的运用,会有第三方的审计机构去做代码审计,重点稽核几个事变,一是架构有没有数据透露的风险,二是代码或系统是不是有数据外发的功能,三是看有没有后门能被人获取到系统的人脸识别数据。”赵起超说。
他先容,安然也通过一些技能创新来提高人脸数据的保护水平。例如改变人脸识别系统前后真个分工,前端设备抓拍照片后直接提取人脸的特色值传回后端,后端数据库中存储的也是特色值,前后端比较加密后的人脸特色值而非原始照片,避免数据传输过程中的个人信息透露。
此前,赵起超曾参与一项与印尼互助的项目。印尼是一个监管非常严格的国家,禁止公民的个人信息出境。赵起超说,为了符合印尼的法律哀求,安然在印尼建立了做事器节点,把项目中的人脸识别系统支配在这个节点上。算法的优化须要印尼人的人脸数据,安然花了很永劫光与监管机构沟通,末了通过印尼本地机构得到C端用户的书面授权函,才办理数据利用的问题。
在人脸识别的运用中,社会代价、企业本钱与隐私保护的平衡问题同样存在。赵起超认为,人脸识别中的个人信息保护是综合性的工程,“不是说在存储上加几个防火墙、或者说通过加密传输就可以办理”。从企业的管理流程上讲,如果是可见的、短期就会发生的风险,一定优先办理风险,再去研发投产。如果是长期的、或者说不会产生重大影响的风险,先去做技能预研,投产与管理同步进行,这样的话就能让业务更顺利地上线。
DPO社群发起人、北京大学法治与发展研究院高等研究员洪延青总结,人工智能极大地提高了生活的便利性,但各种智能产品对生物特色数据的利用也给用户带来了不安。保护个人数据不是为了限定人工智能技能的发展,而是寻求更合理的数据利用办法,平衡隐私保护和数据利用。
采写:南都 冯群星
本文系作者个人观点,不代表本站立场,转载请注明出处!