人工智能技能供应商声称,通过整合基于机器的决策,可以减少招聘中的偏见,但至少在其早期阶段,人工智能招聘策略有可能影响企业的原谅性。

人工智能在员工招聘中可能弊大年夜于利_人工智能_应聘者 计算机

近年来,随着企业转向自动化评估、数字口试和数据剖析来解析求职简历和筛选应聘者,人工智能在招聘过程中的利用有所增加。
IT团队致力于实现更好的多样性、公正性和原谅性,事实证明,如果企业对如何履行人工智能技能没有计策性和寻思熟虑,那么在员工招聘中采取人工智能可能弊大于利。

IEEE研究员、纽约大学坦登工程学院院长Jelena Kovačević说:“人工智能的偏见常日来自数据。
如果没有一个具有广泛代表性的数据集,那么采取人工智能系统难以创造和评估适宜的应聘者。

人工智能用于招聘面临的紧张问题是,在美国多年来一贯以男性和白职员工为主的行业领域中,人工智能招聘系统所依据的历史数据终极将具有固有的偏见。
如果没有采取更加广泛的数据集来演习人工智能算法,那么人工智能招聘工具很可能带有自从上世纪80年代以来存在于技能招聘中的偏见。
不过专家表示,人工智能的有效利用有助于创建一个更高效、更公正的招聘流程。

人工智能偏见的危险

由于人工智能算法常日是根据过去的数据进行演习的,因此人工智能的偏见始终是一个难以办理的问题。
在数据科学中,偏见被定义为由于学习算法中的缺点假设而产生的缺点。
采取不能反响当前情形的数据来演习算法,就会得到缺点的结果。
因此在招聘方面,特殊是在IT这样的行业中,根据历史的招聘数据演习算法可能是一个重大的缺点。

美国电子隐私信息中央的人工智能和人权研究员Ben Winters表示:“很难确保一款人工智能软件没有天生的偏见或有偏见的影响。
虽然可以采纳方法避免这种情形,但许多系统已经显示出基于种族和残疾人的偏见影响。

Kovačević表示,如果企业的数据集没有明显的多样性,那么人工智能算法就不可能知道来自代表性不敷群体在过去的表现。
与其相反,其算法将倾向于数据集所代表的内容,并将所有未来的应聘者与其原型进行比较。

她说,“例如,如果黑人过去被系统打消在外,如果在过去没有女性参与个中,而基于这些创建算法则无法精确预测未来。
如果只从‘常春藤盟校’招聘,那么真的不知道来自一个鲜为人知的学校的申请者会如何表现,以是将会产生多重偏见。

BMC Software公司的企业社会任务、多元化、公正和原谅性卖力人Wendy Rentschler敏锐地意识到了人工智能可能给招聘过程带来的潜在负面影响。
她以亚马逊公司试图开拓人工智能招聘工具的案例遭到失落败为例:该公司不得不中止这个项目,由于该算法歧视女性求职者。

Rentschler说:“如果最大和最伟大的软件开拓商不能做到这一点,我就会对所有人力资源技能职员声称能够做到这一点感到疑虑。

虽然一些人工智能招聘软件的开拓商流传宣传他们的软件供应了强大的功能,但是否可以帮助确定得当的求职者还有待不雅观察。
人工智能技能可以帮助企业简化招聘流程,并找到利用人工智能识别合格求职者的新方法,但主要的是不要被这些软件开拓商的宣扬影响其判断力。

如果正在考试测验改进企业中的原谅性,人工智能彷佛是一种快速办理方案或灵丹灵药,但如果对在招聘过程中利用人工智能缺少策略性,它可能会揠苗助长。
关键是企业要确保其招聘流程和利用的工具不用除传统上代表性不敷的群体。

人工智能的歧视

企业有任务确保他们在招聘过程中尽可能合乎道德地利用人工智能,不是成为这些工具功能被浮夸的受害者。
美国民主与技能中央员工隐私问题高等政策顾问Matthew Scherer指出,由于企业人力资源部门并不创造收入并且常日被贴上支出部门的标签,因此企业领导者有时渴望引入可以供应帮助的自动化技能减少开支。
然而,这种渴望会导致忽略他们正在利用的软件的潜在负面影响。
Scherer还指出,人工智能招聘软件公司的许多说法纵然不是完备缺点的,也每每言过实在。

他说,“特殊是那些声称可以剖析人们的面部表情、语气、任何衡量个性方面的工具,而这样的工具实在是一种万金油式的工具。

在***口试中,声称评估语气、表情和应聘者个性的工具可以评估应聘者在文化上的“正常”程度,这终极可能会打消残疾人应聘者或任何不符合算法的应聘者。
这些工具也会让残疾人应聘者处于尴尬的田地,不得不在口试前决定是否表露其所患残疾。
残疾人应聘者可能会担心如果不表露,他们将无法得到应聘所哀求的条件,因此不愿意在招聘过程的早期表露残疾的事实,或者根本不表露。

正如Rentschler指出的那样,黑人和有色人种(BIPOC)、女性和残疾人应聘者常日习气于在口试中进行“代码转换”的做法——即这些代表性不敷的群体对他们的说话、外表或行为办法进行某些调度,在这种情形下,人工智能系统可能会意识到这一点,缺点地将其行为认定为不真实或不老实,从而谢绝潜在的精良应聘者。

Scherer将这种歧视分为两类:具有不同的影响是无意歧视;差异对待是故意歧视。
因此很难设计一种可以避免不同影响的工具,而不明确左袒来自特定群体的应聘者,这将构成法律规定的不同报酬。

人工智能招聘规定

人工智能是一种相对较新的技能,在涉及隐私和贸易实践的立法、政策和法律时缺少监管。
Winters提到了EPIC公司在2019年向美国联邦贸易委员会提出的申说,指控HireVue公司在其招聘软件中利用与面部识别干系的欺骗性商业行为。

HireVue声称供应的软件可以跟踪和剖析应聘者的言语和面部动作,以便能够剖析适宜度、情商、沟通技巧、认知能力、办理问题的能力等等。
HireVue公司终极撤回了其面部识别声明以及这种技能在其软件中的利用。

但Winters指出,也有类似的技能衡量主不雅观行为属性并与组织适宜度相匹配,或者利用人工智能在互联网上搜索关于应聘者陈述的公开信息,然后剖析潜在的危险旗子暗记或匹配。

人们还担心人工智能在剖析应聘者的***口试、评估、简历、LinkedIn个人资料或其他公共社交媒体个人资料时可以网络的有关应聘者的数据量。
在常日情形下,应聘者乃至可能不知道他们在口试过程中被人工智能工具剖析,并且很少有关于如何管理这些数据的规定。

Winters说,“总的来说,目前对人工智能招聘工具的监管很少。
美国已经出台了一些州或地方法案。
但是,这些法案中有许多存在重大漏洞。
人工智能技能的运用该当具有高度的透明度。
因此须要对这些工具的运用进行掌握,严格限定数据的网络、利用和保留,以及自由发布的独立第三方测试。

在招聘中负任务地利用人工智能

Rentschler和她的团队专注于探求利用人工智能技能来帮助企业人力成本更具计策性的方法。
他们已经履行了一些工具,可以利用基于技能的评估来快速筛选应聘者,以理解他们申请的职位,并安排口试以与招聘职员联系。
BMC软件公司还利用人工智能来识别其职位描述中的有问题的措辞,确保它们对每个应聘者都是中性和原谅的。
BMC公司还利用该软件在入职过程中将新员工与其福利和内部组织信息联系起来。
Rentschler的目标是找到履行人工智能和自动化的方法,以帮助其团队中的职员更有效地完成事情,而不是取代他们。

虽然人工智能算法可能会根据历史的招聘数据带来固有的偏见,但避免这种情形的一种方法是更多地关注基于技能的招聘。
Rentschler的团队仅利用人工智能工具来识别具有他们希望添加到员工军队中的特定技能组合的应聘者,而忽略其他标识符,例如教诲、性别、姓名和其他可能在历史年夜将应聘者打消在外的潜在识别信息过程。
Rentschler说,通过这样做,BMC软件公司聘请了背景出乎猜想的应聘者,个中包括一名叙利亚难民,他原来是一名牙医,但也有一些编码履历。
由于该系统只专注于探求具有编码技能的应聘者,这位前牙医通过了筛选并被该公司聘任。

采纳的其他道德策略包括建立制衡机制。
Scherer表示,有一家公司设计了一种工具,可以将潜在应聘者的简历发送给招聘职员,然后招聘职员会审查他们的简历,并决定他们是否适宜这份事情。
纵然那名招聘职员谢绝了简历,应聘者的简历仍旧会再次通过算法发送给其他的招聘职员。
如果它被标记为一名良好的潜在应聘者,它会被发送给另一名不知道已经被其他人审查过的招聘职员。
这确保了简历由人工复核,并且他们不完备依赖人工智能系统来确定合格的应聘者,还确保招聘职员不会忽略合格的应聘者。

Scherer说,“主要的是,人类须要保持判断力,而不仅仅依赖机器。
这便是很难进行演习的事情,由于对付招聘职员来说,最随意马虎做的事情便是,‘如果公司希望我利用这个工具,我将按照机器见告我的任何事情去做。