人工智能的六大年夜伦理原则_人工智能_数据
Tim O’Brien | 文
2018年,微软揭橥了《未来打算》(The Future Computed)一书,个中提出了人工智能开拓的六大原则:公正、可靠和安全、隐私和保障、原谅、透明、任务。
首先是公正性。公正性是指对人而言,不同区域的人、不同等级的所有人在AI面前是平等的,不应该有人被歧视。
人工智能数据的设计均始于演习数据的选择,这是可能产生不公的第一个环节。演习数据该当足以代表我们生存的多样化的天下,至少是人工智能将运行的那一部分天下。以面部识别、感情检测的人工智能系统为例,如果只对成年人脸部图像进行演习,这个别系可能就无法准确识别儿童的特色或表情。
确保数据的“代表性”还不足,种族主义和性别歧视也可能悄悄混入社会数据。假设我们设计一个帮助店主筛选求职者的人工智能系统,如果用公共就业数据进行筛选,系统很可能会“学习”到大多数软件开拓职员为男性,在选择软件开拓职员职位的人选时,该系统就很可能倾向男性,只管履行该系统的公司想要通过招聘提高员工的多样性。
如果人们假定技能系统比人更少出错、更加精准、更具威信,也可能造成不公。许多情形下,人工智能系统输出的结果是一个概率预测,比如“申请人贷款违约概率约为70%”,这个结果可能非常准确,但如果贷款管理职员将“70%的违约风险”大略阐明为“不良信用风险”,谢绝向所有人供应贷款,那么就有三成的人虽然信用状况良好,贷款申请也被谢绝,导致不公。因此,我们须要对人进行培训,使其理解人工智能结果的含义和影响,填补人工智能决策中的不敷。
第二是可靠性和安全性。它指的是人工智能利用起来是安全的、可靠的,不作歹的。
目前全美热议的一个话题是自动驾驶车辆的问题。之前有***宣布,一辆行驶中的特斯拉系统涌现了问题,车辆仍旧以每小时70英里的速率在高速行驶,但是驾驶系统已经去世机,司机无法重启自动驾驶系统。
想象一下,如果你要发布一个新药,它的监管、测试和临床试验会受到非常严格的监管流程。但是,为什么自动驾驶车辆的系统安全性完备是松监管乃至是无监管的?这便是一种对自动化的偏见,指的是我们过度相信自动化。这是一个很奇怪的抵牾:一方面人类过度地相信机器,但是另一方面实在这与人类的利益是冲突的。
另一个案例发生在旧金山,一个已经喝晕了的特斯拉车主直接进到车里打开了自动驾驶系统,睡在车里,然后这辆车就自动开走了。这个特斯拉的车主以为,“我喝醉了,我没有能力连续开车,但是我可以相信特斯拉的自动驾驶系统帮我驾驶,那我是不是就不违法了?”但事实上这也属于违法的行为。
可靠性、安全性是人工智能非常须要关注的一个领域。自动驾驶车只是个中一个例子,它涉及到的领域也绝不仅限于自动驾驶。
第三是隐私和保障,人工智能由于涉及到数据,以是总是会引起个人隐私和数据安全方面的问题。
美国一个非常盛行的健身的App叫Strava,比如你骑自行车,骑行的数据会上传到平台上,在社交媒体平台上有很多人就可以看到你的健身数据。问题随之而来,有很多美国军事基地的在役军人也在磨炼时用这个运用,他们磨炼的轨迹数据全部上传了,全体军事基地的舆图数据在平台上就都有了。美国军事基地的位置是高度保密的信息,但是军方从来没想到一款健身的App就轻松地把数据透露出去了。
第四是人工智能必须考虑到原谅性的道德原则,要考虑到天下上各种功能障碍的人群。
举个领英的例子,他们有一项做事叫“领英经济图谱搜索”。领英、谷歌和美国一些大学联合做过一个研究,研究通过领英实现职业提升的用户中是否存在性别差异?这个研究紧张聚焦了全美排名前20 MBA的一些毕业生,他们在毕业之后会在领英描述自己的职业生涯,他们紧张是比拟这些数据。研究的结论是,至少在全美排名前20的MBA的毕业生中,存在自我推举上的性别差异。如果你是一个男性的MBA毕业生,常日你在自我介绍的力度上要超过女性。
如果你是一个公司卖力招聘的人,登录领英的系统,就会有一些关键字域要选,个中有一页是自我总结。在这一页上,男性对自己的总结和评估常日都会高过女性,女性在这方面对于自我的评价是偏低的。以是,作为一个招聘者,在招聘职员的时候实在要得到不同的数据旗子暗记,要将这种数据旗子暗记的权重降下来,才不会滋扰对应聘者的正常评估。
但是,这又涉及到一个程度的问题,这个数据旗子暗记不能调得过低,也不能调得过高,要有一个精确的度。数据能够为人类供应很多的洞察力,但是数据本身也包含一些偏见。那我们如何从人工智能、伦理的角度来更好地把握这样一个偏见的程度,来实现这种原谅性,这便是我们说的人工智能原谅性的内涵。
在这四项代价不雅观之下还有两项主要的原则:透明度和问责制,它们是所有其他原则的根本。
第五是透明度。在过去十年,人工智能领域突飞年夜进最主要的一个技能便是深度学习,深度学习是机器学习中的一种模型,我们认为至少在现阶段,深度学习模型的准确度是所有机器学习模型中最高的,但在这里存在一个它是否透明的问题。透明度和准确度无法兼得,你只能在二者权衡取舍,如果你要更高的准确度,你就要捐躯一定的透明度。
在李世石和AlphaGo的围棋赛中就有这样的例子,AlphaGo打出的很多手棋事实上是人工智能专家和围棋职业选手根本无法理解的。如果你是一个人类棋手,你绝对不会下出这样一手棋。以是到底人工智能的逻辑是什么,它的思维是什么,人类目前不清楚。
以是我们现在面临的问题是,深度学习的模型很准确,但是它存在不透明的问题。如果这些模型、人工智能系统不透明,就有潜在的不屈安问题。
为什么透明度这么主要?举个例子,20世纪90年代在卡耐基梅隆大学,有一位学者在做有关肺炎方面的研究,个中一个团队做基于规则的剖析,帮助决定患者是否须要住院。基于规则的剖析准确率不高,但由于基于规则的剖析都是人类能够理解的一些规则,因此透明性好。他们“学习”到哮喘患者去世于肺炎的概率低于一样平常人群。
然而,这个结果显然违背知识,如果一个人既患有哮喘,也患有肺炎,那么去世亡率该当是更高的。这个研究“学习”所得出的结果,其缘故原由在于,一个哮喘病人由于常常会处于危险之中,一旦涌现症状,他们的当心性更高、接管的医护方法会更好,因此能更快得到更好的医疗。这便是人的成分,如果你知道你有哮喘,你就会迅速采纳应急方法。
人的主不雅观成分并没有作为客不雅观的数据放在演习模型的数据图中,如果人类能读懂这个规则,就可以对其进行判断和校正。但如果它不是基于规则的模型,不知道它是通过这样的规则来判断,是一个不透明的算法,它得出了这个结论,人类按照这个结论就会建议哮喘患者不要住院进行治疗,这显然是不屈安的。
以是,当人工智能运用于一些关键领域,比如医疗领域、刑事司法领域的时候,我们一定要非常小心。比如某人向银行申请贷款,银行谢绝批准贷款,这个时候作为客户就要问为什么,银行不能说我是基于人工智能,它必须给出一个情由。
第六是问责。人工智能系统采纳了某个行动,做了某个决策,就必须为自己带来的结果卖力。人工智能的问责制是一个非常有争议的话题,我们还是回到自动驾驶车上进行谈论。确实,它还涉及到一个法律或者立法的问题。在美国已经涌现多例由于自动驾驶系统导致的车祸。如果是机器代替人来进行决策、采纳行动涌现了不好的结果,到底是谁来卖力?我们的原则是要采纳问责制,当涌现了不好的结果,不能让机器或者人工智能系统当替罪羊,人必须是承担任务的。
但现在的问题是我们不清楚基于全天下的法律根本而言,到底哪个国家具备能力处理类似案件的能力。(美国)很多案件的裁决是基于“判例法”进行剖断的,但是对付这样一些案例,我们没有先例可以作为法庭裁决的法律根本。
实在,不只是自动驾驶,还有其他很多领域,比如刑事案件问题,还有涉及军事领域的问题。现在有很多的武器已经自动化或者是人工智能化了,如果是一个自动化的武器杀伤了人类,这样的案件该当如何裁定?
这就要牵扯到法律中的法人主体的问题,人工智能系统或全自动化系统是否能作为法人主体存在?它会带来一系列的法律的问题:首先,人工智能系统是否可以剖断为是一个法律的主体?如果你剖断它是一个法律的主体,那就意味着人工智能系统有自己的权力,也有自己的任务。如果它有权力和任务,就意味着它要对自己的行为卖力,但是这个逻辑链是否成立?如果它作为一个法律主体存在,那么它要承担相应的任务,也享有接管法律声援的权利。因此,我们认为法律主体一定假如人类。
作者为微软人工智能项目总经理,编辑:韩舒淋,原载2019年5月27日《财经》杂志
本文系作者个人观点,不代表本站立场,转载请注明出处!