人工智能面试官:效率提升照样就业歧视?_年夜众_求职者
AI渗透招聘市场
根据数据显示,目前已有99%的财富500强企业采取AI技能自动过滤求职申请,40%的公司更打算在今年利用AI与潜在人才\"大众对话\公众。这些企业常会采取预先录制的***问题,由AI语音助手向求职者提问,哀求他们在规定韶光内回答。也有雇紧张求求职者在口试环节中完成小游戏或测试,通过AI评估他们的把稳力、反应能力等。
乃至有些公司会在正式口试前,就通过AI剖析求职者在社交媒体上的数字足迹,评估其是否与企业文化符合。这些做法的目的,都是为了借助AI的力量提高招聘效率,降落人力和财务本钱。
\公众电脑说弗成\"大众难辩白
然而,AI招聘系统也存在一些潜在的风险和问题。一些研究创造,AI系统可能会对求职者的口语习气、社会阶层等成分产生负面评价。比如对付说话办法较为口语化的蓝领阶层求职者,AI就可能做出不利评判。
再者,一些游戏化的AI测评环节,可能会排斥视力或手眼反应略有障碍的身心障碍人士。更有研究者担忧,店主若将求职者的社会阶层、家庭背景等转化为\"大众数字化指标\公众,可能会引发出无意识中的认知偏见,导致歧视。
最令人不安的是,很多时候求职者并不知道自己是否遭到AI的\"大众无心之失落\公众评判。一旦被AI系统筛选出局,他们收到的每每只是一封冰冷的谢绝邮件,无从得知落选缘故原由。\"大众反歧视法紧张由投诉驱动,如果应聘者不知道发生了什么,就沒人抱怨被剥夺了事情机会。\"大众牛津大学法学教授Sandra Wachter说。
监管与透明度需加强
针对这一问题,去年11月纽约市政府出台新规:未来任何AI招聘系统若没有每年通过公道性审核,都将被禁止利用。年审将检讨AI系统是否存在种族或性别歧视,店主也必须为求职者供应人工审核的替代方案。
但这一规定也受到一些质疑。一些人工智能专家和数字权利活动家认为,这只是哀求AI开拓商自我证明符合现有的反歧视法哀求,并未提出更高的监管标准。而法案对付\公众如何审核偏见\"大众的详细哀求也十分模糊。
事实上,造成AI系统带有偏见的主因,常常是演习数据本身存在问题。比如亚马逊之前就曾停用一款AI简历扫描工具,由于创造它会系统性倾向男性求职者。部分缘故原由是该系统的演习数据集过于依赖该公司现有的男性技能职员比例。
与此类似,如果AI系统接管了某些存在种族或性别差异的行业数据,那么它产生的结果也将继续和加剧这些偏见。今年更有研究创造,Facebook的广告投放算法也可能带有性别歧视——男性用户更随意马虎看到快递员招聘广告,而女性用户则会被推送更多购物类广告。
这种潜在的算法偏见,很随意马虎在人们意识不到的情形下滋长并永久化。与那些努力肃清偏见的公司比较,一些公司之以是更随意马虎涌现问题,便是由于其系统善于于固化并\"大众合理化\"大众现有的不合理情形。
因此,要杜绝AI系统带来的就业歧视风险,确实须要加强监管。与纽约市新规定的目标同等,干系方面首先须要提高AI系统的透明度,让普通求职者能理解自己是否遭到AI评估、AI是如何评估的,以及评估所依据的数据来源。
其次,须要对AI系统进行独立的年度审核,明确审核的标准和指标,并由第三方威信机构实行,而不但是开拓者的自我评估。很多时候,只有通过持续审计和监督,才能创造隐蔽在算法深处的潜在问题。
除了加强监管,社会各界同样也应该勾引AI系统朝着更加原谅、多元的方向发展。众所周知,培养出偏见AI的最紧张缘故原由,正好是演习数据中长期存在的系统性偏见和代表性失落衡。要办理问题的根源,就必须在教诲、就业等社会领域中持续改革,创造更加公正的环境。
只有提高透明度、强化监管,并与肃清社会偏见的努力相结合,我们才能防止AI带来的新的就业歧视风险,充分发挥AI提高效率的上风,让AI真正成为企业和求职者的\"大众助手\"大众,而非无心的\"大众侵害者\公众。
本文系作者个人观点,不代表本站立场,转载请注明出处!