不公正的AI算法正折射出人类的偏见_年夜众_人工智能
钛媒体注:本文来源于微信"大众年夜众号硅兔赛跑(ID:sv_race),作者丨Molly Fosco,编译丨Vivian,责编丨Lu,钛媒体经授权发布。
在阿巴拉契亚山脉下田纳西州终年夜的Alice Xiang,是在以白人为主的学校里为数不多的亚裔学生之一。
随着她进入“高等班”,她创造同龄人越来越多地来自中上层家庭。她的许多小学同学,家庭背景不那么优胜的,走上了出息机会较少的路。
这段经历让Xiang影象犹新,由于她后来考上了哈佛、牛津、耶鲁等精英大学。事实上,这也是她现在作为Partnership on AI(PAI)的研究科学家,专门研究算法公正性的紧张缘故原由之一。
她说,在田纳西州终年夜的经历,让她认识到标签和种别 \公众可能无法充分反响个体的繁芜性和潜力\"大众。
当Xiang开始职业生涯时,在第一次演习机器学习算法的时候,她创造她个人认为干系的数据会很大程度上影响这个过程。而她的同事们亦是如此。
\"大众这让我很不舒畅,环绕这些算法做决定的人都住在大城市,上过研究生,而且不会与和他们身份背景有很大不同的人有什么来往,\"大众她说。值得把稳的是,她的同事中很少有女性或少数族裔。
从事技能事情的女性相称稀少是一个有据可查的话题,而且这个状况险些没有被改进。与全体行业的其他技能角色比较,如网络开拓、用户体验设计或数据科学,女性在人工智能领域的比例尤其令人担忧。
而来自谷歌、苹果、Facebook等科技巨子的专家,以及该领域的许多研究职员都表示,人工智能将彻底改变我们生活的方方面面。
人工智能描述了打算机将人类聪慧融入其决策的能力。当代人工智能算法是在大型数据集上进行演习,在模式识别的根本长进修技能,然后预测下一步该当怎么做。机器学习作为人工智能的一个子集,正越来越多地被用于办理各行各业的问题。
在许多不断交互的设备和做事中,人工智能已经无处不在:iPhone上的Face ID、亚马逊上推举购买产品、Spotify上推举你可能喜好的歌曲、信用卡的自动敲诈检测,掌握建筑物的供暖和制冷,安排飞机起飞和到达韶光等等。
一些专家预测,技能奇点,即人工智能将与人类不相上下,乃至比人类更聪明的那一刻,可能会涌如今我们有生之年。有人认为可能最快30年,也有人说可能须要几个世纪。
如果这种 \"大众通用人工智能 \"大众成为现实,那么像法律助理、放射科年夜夫、招聘经理等事情都被预测会更加自动化。天下经济论坛预测,到2022年,自动化将取代7500万个事情岗位,并产生1.33亿个新岗位。
只管人工智能在经济上大有可为,但如今,女性在环球人工智能专业职员中仅占22%。
根据LinkedIn和天下经济论坛的剖析,机器学习研究职员中只有12%是女性。可能有一天会雇用我们,支配我们的医疗,并在审判中决定讯断的技能,险些完备是从白人、受过良好教诲的男性角度设计的。
这种人工智能领域的同一性已经对社会看待女性和少数族裔的办法、这些群体的报酬以及他们能够参与行业的办法产生了奇妙的影响。如果不做任何改变,我们就有可能连续加固社会对女性和少数群体的固有偏见。
02、大多数批驳人工智能的人是女性和少数群体
已经有证据表明,边缘化群体在就业、得到信贷和贷款,及得到适当的医疗做事方面处于严重的不利地位,如果不加以制止,随着行业的发展,这种情形只会越来越严重。
大多数批驳人工智能的人是女性和少数群体,由于他们更有可能遭遇到算法上的不公道。
但越来越多从事人工智能和机器学习的人致力于确保上面描述的未来不会成为现实。研究职员开始呼吁关注人工智能伦理学,该领域涉及设计“负任务”的人工智能。而许多研究都是由女性,包括少数族裔女性完成的。
越来越多的人关注人工智能对社会的影响,迫使人工智能领域席卷除了打算机科学家以外,其他学科的研究职员,尤其是社会科学和人文学科的职员。
AI伦理学须要思考并优先考虑技能的社会学和生理学影响。随着道德和公正对人工智能的未来越来越主要,这个未来可能会让更多不同背景的人加入到这个领域,让消费者享受到更大的原谅性。
03、AI正在放大现有的偏见
\"大众Siri,本日的景象怎么样?\公众\"大众旧金山本日最高气温将达到55度,大部分韶光是晴天。\"大众
当你在脑海中读出Siri刚才的回答时,很有可能是个女人的声音。
\"大众人们可以选择将Siri的声音改为男性,但基本不会有人改。\公众旧金山大学运用数据伦理中央主任Rachel Thomas说。Rachel Thomas是fast.ai的创始人,fast.ai是一个免费的在线程序,供编码职员利用人工智能工具。
亚马逊的Alexa和微软的Cortana也是默认女性声音和女性名字。\"大众男性和女性都表现出对女性助手的偏好,我们对女性做助手感到安心。\公众Thomas说。
在人工智能语音助手之前,2008年印第安纳大学的研究创造,与男性或电脑语音比较,男性和女性都表现出对女性声音的偏好。亚马逊和微软公开表示,在对其语音助手产品的研究和测试中,女性声音的测试效果更好。
影响已经很明显了。2019年5月,联合国教科文组织发布的一项研究创造,语音助手性别为女性,强化了女性乐意为他人做事的刻板印象。
\"大众这是人工智能带来的风险的一个例子,\公众Thomas说。\公众我们在核阅当下的社会,锁定它,并且强化它。\"大众
旨在提高人工智能多样性的教诲性非营利组织AI4ALL的CEO Tess Posner对此表示赞许。\公众人工智能展现了我们与生俱来的偏见,\公众她说。\"大众助理事情被认为是一个女性角色,以是通过让语音助手听起来是女性,AI正在放大现有的偏见。\"大众
这些产品的缔造者并非完备没有女性的身影,创建亚马逊Alexa的二人组中,Toni Reid是女性。但人工智能语音助手设计者中,做决策的人,绝大部分是白人和男性。
截至2018年,亚马逊环球仅有26.8%的管理者为女性,73.2%的管理者认定为男性。当年,彭博社还宣布称,在每周一次的亚马逊AWS会议上,在200名亚马逊员工先容最新成果时,会议房间中险些不会有超过5名的女性。
Siri最初是由三个男性打造的。在环球范围内,苹果的技能员工中男性占77%。49%是白人,35%是亚裔,8%是西班牙裔,6%是黑人。
04、在谷歌图片上搜CEO,险些全是男性
当苹果第一次推出Siri时,如果见告她你心脏病犯了,她会打电话给911,但对***或家庭暴力,她没有任何反应。如果见告Siri你被***了,她会回答:\"大众我不知道你说的'我被***了'是什么意思。\公众
而在2019年初,如果你说:\"大众嘿,Siri,你是个bitch\"大众,她会回答:\公众如果可以,我会酡颜\公众。这些后来都在更新中被修正了,但这表明她最初设计的天下不雅观是有限的。
\"大众我们还有很多事情要做,识别偏见,并确保我们正在办理这些事情,\"大众Posner说。\公众这很好,但归根结底,这关系到权力,以及谁在建立这些系统。\公众
不仅仅是Siri和Alexa,人工智能可以以无数种办法放大和强化我们现有的偏见。
2015年,华盛顿大学发布的一项研究创造,在谷歌图片上搜索 \"大众CEO \公众时,结果险些全是男性。仅有11%的图片因此女性为主角的,只管在当时,女性在美国的CEO中占27%。
根据Pew Research Center的数据,截至2019年,美国女性CEO的数量增加到28%,而在谷歌 \"大众CEO\公众的图片结果中,以女性为主角的比例低落到10%。
当你在谷歌中输入图片的搜索查询时,搜索算法会读取网上数十亿张图片的干系元数据,找到最常见的图片,并将其挑出来。各种事情的形象搜索结果反响了公司、组织和媒体选择代表这些职业的形象。
\公众有人认为,这是由于现在很多CEO都是男性,\公众Thomas说,\公众但这也强化和放大了我们的固有不雅观念,即男性是CEO。\"大众
研究证明了这一点。华盛顿大学2015年的同一项研究创造,搜索图像结果中的性别刻板印象影响了人们对某一领域男性和女性事情职员比例的意见。
\公众它实际上改变了人们对自己想法的思考办法。\公众Socos实验室的创始人Vivienne Ming博士说,该实验室是一个专注于人工智能、神经科学和教诲改革的智库。\"大众随着这些系统的不断循环,它们变成了这个闭环,强化了我们自己的偏见。\"大众
然而,如何办理这个问题并没有形成明确的共识。\"大众如果所有的语音助手都是女性,那就有问题了,但什么是公正的地带呢?\"大众Xiang说。\"大众同样,对付CEO的图像搜索结果,五五开便是最故意义的做法吗? 该当展示我们实际看到的?还是该当介于两者之间?\公众
如果算法是在有偏见的数据上演习出来的,我们如何创造公正的算法呢?一个选择是利用额外的数据集,供应模型的偏倚程度,然后相应地重新平衡数据集,Xiang说。
例如,《美国药物和酒精滥用期刊》(American Journal of Drug and Alcohol Abuse)揭橥的数据显示,黑人和白人利用和发卖毒品的比例相似,但黑人因与毒品有关的犯罪而被捕的可能性大约是白人的2.6倍。前者的数据可以用来调度后者的数据集。
2017年,伦敦的AI研究员Josie Young开拓了女性主义谈天机器人设计流程,以帮助组织建立符合道德或社会意识的谈天机器人和AI界面。她的辅导方针成为一个名为F'xa的女权主义谈天机器人的中央思想,该谈天机器人由一个名为Feminist Internet的组织创建,旨在教诲用户将偏见嵌入人工智能系统的风险。
问题是,要想把 \"大众公正 \"大众建立在人工智能系统中,就必须对这个观点进行量化思考。而对付公正的含义,研究者也有不同的定义。
Vivienne Ming博士对此表示赞许。\"大众当人们评论辩论人工智能的公正性时,他们的意思有所不同,\"大众她说,\公众有时候他们在评论辩论透明度,即算法是如何运作的。有时候,他们在评论辩论算法的结果,或者,是如何演习的。公恰是很难定义的。\"大众
05、算法的不公道
除了社会对女性及少数族裔的意见之外,人工智能还能对女性和其他边缘化群体的报酬产生潜移默化的影响。
AT&T、希尔顿和Humana等公司已经在招聘过程中利用了人工智能,以确保申请人符合职位的基本标准。
2018年,亚马逊的机器学习专家创造,他们的招聘算法对包含 \公众女性 \"大众一词的技能职位的简历进行了降级,并“惩罚”了两所全女性大学的毕业生。该算法是根据亚马逊10年来的招聘数据进行的演习,个中技能岗位的职员大多为男性。
\公众在招聘中,我们每每希望,如果把简历中的性别完备擦掉,人工智能就不会学习这些偏见。\公众Xiang说。但如果演习数据中的候选人池中有更多的男性,那么 \"大众人工智能就会面临明显的寻衅,即倾向男性而非女性\"大众。
这样的结果不仅仅发生在招聘中。
在刑事风险评估中,人工智能被用来确定某人再次犯罪的可能性,然后法官在判刑时将其考虑在内。和招聘算法一样,犯罪风险评估工具常日是根据历史数据进行演习的,根据法律统计局的一份报告,美国黑人比白人或西班牙裔更随意马虎被警察拦截。
谷歌伦理人工智能团队的研究科学家Timnit Gebru指出,大多数批评人工智能的人都是女性和少数族裔,由于他们更有可能遭遇算法上的不公道。\"大众来自边缘化群体的人们一贯在真正努力地将这一问题推到大众面前。\"大众
2018年,麻省理工学院研究职员Joy Buolamwini创造,天下上利用最广泛的面部识别工具IBM、微软和Face++,缺点识别女性面孔的次数比男性面孔多,很多时候,它们根本无法检测到深色皮肤的面孔。
这意味着,当面部识别用于安全监控时,妇女和少数族裔可能比白人男子更常常地被识别为威胁。
06、不同领域的人开始进入AI行业
\"大众这些系统正在被无形地嵌入我们的社会,\"大众Posner说,\"大众这不仅仅放大了我们心中的一些偏见,这些系统可能会改变生活。\公众
人工智能很难处理没有整洁划一地归入规定类别的情形。
身为跨性别女性的Vivienne Ming博士,亲自经历了AI难以读懂自己的性别。\公众当我在美国机场通过全身扫描仪时,我总是会被标记,由于我的臀部和肩部的比例对付一个女性来说是不正常的。\公众当我被标记时,安检事情职员会把手伸进我的两腿之间,这太不公正了。\"大众
更多样化的劳动力是否会改进这些问题?\公众当然,在某种程度上,\公众Ming博士说,\公众AI只是一个工具,只能做它的指挥者知道的事情。\公众
而办理方案并不是大略地在AI领域雇佣更多的女性。\"大众这可能会引起争议,\公众她说,\公众但如果你认为雇佣更多的女性(在人工智能领域)会神奇地办理这个问题,你就错了。\"大众
Ming博士认为,我们须要的是更多理解算法如何影响人类的人。其他专家表深表赞许,并正在努力做到这一点。
AI研究者Abeba Birhane认为,人工智能该当优先考虑的是理解而不是预测。
我们不应该只依赖算法预测模式,而该当常常质疑为什么会涌现一些固定的模式。例如,为什么刑事风险评估工具显示黑人和棕色人种更随意马虎被逮捕?会不会是他们的社区过度治安的结果?
谷歌Brain的研究科学家Been Kim正在开拓能够自我阐明的人工智能软件,增加人类对技能运作的理解。
她最近建立了一个别系,作为 \"大众人类的翻译\公众,能理解人工智能什么时候没有按照它该当做的办法事情。例如,如果一个人工智能系统被演习成在图像中识别斑马,你可以利用这个工具来理解人工智能在做出决定时对 \"大众条纹 \公众的权重。
\公众不必理解人工智能模型的每一件事,\"大众Kim说,\"大众但只要你能理解到安全利用这个工具的信息,那便是我们的目标。\公众
07、嘿,Siri,给女权主义下个定义吧
随着自动化越来越遍及,那些须要与机器互动的事情,比如建筑和工厂的事情,正在迅速减少。另一方面,像医疗保健和社会事情等大量利用人际关系技能的事情正在快速增长。
约克大学2018年的一项研究创造,在过去的25年里,受过大学教诲的男性从事白领事情的概率低落,而受过大学教诲的女性从事白领事情的概率上升。转变的最大缘故原由是什么?年夜夫、软件工程师和经济学家等工为难刁难社交技能的需求增加。
这些事情须要相对高的情商(emotional intelligence),而情商是相称难自动化的。多项研究表明,女性在EI测试中的得分高于男性,包括EI的每一个子量表,比如理解、表达和感知感情。
这并不是说每个女人都比每个男人有更高的EI,也不是说这些特色是生理性的。一些研究表明,女性更有可能由于受到社会条件的制约,而去培养自己的这些特质。
如果伦理学这个同样须要高水平EI的领域,连续对人工智能领域变得越来越主要,这种需求可能会吸引更多的女性进入这个行业。根据美国国家科学基金会的研究,自上世纪90年代初以来,女性在美国所有社会科学家中至少占了一半或更多。
\公众在PAI,我们和女性研究职员互助很多,专注于人工智能的伦理和透明度。\"大众Xiang说,\"大众在这些研究领域,女性的比例是相称高的\公众。
Xiang自身的背景磨砺了她的EI技能,她在进入天下级精英大学之前,是在边远地区终年夜的。这些发展经历影响着她后来对付算法公正性的研究。一个人事情做得好或拖欠贷款的可能性有多大?不能仅靠历史数据来确定。
Xiang认为,领域专业性,即某一领域的专业知识,对人工智能行业也变得越来越主要。她碰着的很多同事都是STEM专业的,大学毕业后从事与STEM不直接干系的事情,后来又转型做人工智能。
Xiang在从事人工智能事情之前曾从事统计、经济、法律等事情,她在这些领域有了自己的专长,现在将这些专长利用到了研究中。
Thomas和丈夫一起运营fast.ai,她希望让人工智能节制在不同领域非常广泛和多样化的人群手中。\"大众我们相信干系领域的专家是最熟习自己问题的人,\公众Thomas说,\"大众我们教这些不同领域的专家利用深度学习,而不是找一个对其他领域感兴趣的深度学习领域的博士。\公众
Thomas的几位fast.ai学生正在其专业领域利用人工智能来改进他们领域内的研究。人类龟龄研究所机器学习主任、fast.ai校友Alena Harley正在利用AI算法为转移的癌症识别源头。在最近的试验中,Harley将缺点率降落了超过30%。
当你问Siri什么是女权主义代价不雅观时,她会回答:\"大众我在网上找到了这个。\"大众并根据受欢迎程度调出搜索结果。很多时候,涌现率最高的一篇文章是职业辅导顾问写的,标题是 \"大众什么是女权主义,为什么那么多女人和男人讨厌它?\"大众
女权主义谈天机器人F'xa的答案略有不同。她会说,女权主义代价不雅观对不同的人来说,可能意味着不同的东西,这取决于他们的背景和他们所面临的寻衅。
原标题:Code Switch
作者:Molly Fosco
原文链接:https://trix-magazine.com/global-affairs/code-switch/
本文系作者个人观点,不代表本站立场,转载请注明出处!