重大的安全或隐私透露会给企业带来危急。
上***,打官司,有时,首席实行官在国会作证。
首席信息官们昼夜一直地事情,得到的却是解聘书和出路未卜的奇迹。
这样的事情我们见过不少。

CIO若何治理人工智能中的风险_人工智能_成见 文字写作

来自麻省理工学院和斯坦福大学的研究职员测试了来自主要科技公司的三个以商业版的形式发布的面部分析程序,并将展示这样的创造——这些软件带有明显的肤色和性别偏见。
面部识别程序善于识别白人男性,但却无法成功地识别女性(尤其是肤色较深的女性)。
即将举行的公正、问责和透明度会议将全面公布上周的这个爆炸性***。

偏见有损企业与"大众之间的关系。
它会成为批评人士的众矢之的,他们会将这种事情看作是公司不分担客户代价的证据。
而且,由于人工智能在投资、医疗保健、贷款和财务决策、就业等方面做出越来越多的决策,人身和财务乃至刑事任务的风险将会增加。

在我们开始存储和传输有代价的数据(常日是个人和财务方面的数据)时,我们会造成数据透露的风险。
在人工智能和自动化技能时期,偏见是新的漏洞。
人工智能和自动化技能对你的公司计策至关主要。
但随之而来的是首席信息官和其他领导者必须应对的新风险和问题。

创建系统和流程非常主要,它们可以防止偏见蔓延到公司的人工智能软件中,并在在偏见产生时检测到它并减少危害。
未来几年的最大寻衅将会是这个,而不是失落去事情或人工智能对人身安全的威胁。

公开例子

软件程序可能存在偏见,这彷佛很奇怪,但缘故原由很大略。
开拓人工智能技能的专家是那些将数据输入到程序中的人。
如果他们利用的数据已经包含标准的人为偏差,那么他们的人工智能软件也会反响这种偏见。
这并非故意为之,但不幸的是,在Alexa、Siri或Google Home等系统上开始最初的编程时,它并不是一个紧张的考虑成分。

有些批评人士希望看到人工智能的交互既是性别上中立的,也是种族上中立的。
我们可能希望采取更通用的机器发音,而不是我们已经打仗到的标准女性声音。
这可能有点过了,但不雅观点是有效的。
在将人工智能集成到商业组织中时,我们须要时候保持当心,避免涌现偏见。

避免偏斜的数据集

机器学习的上风之一在于,与传统剖析方法比较,它可以从相对较小的数据集创建高度引人瞩目的预测模型。
这每每会产生令人愉快且非常有代价的洞察。
但是,这些巨大的利益中存在很大的风险。
如果我们希望人工智能完备无偏见,我们必须让它有一个尽可能好的出发点。
目前的数据集可能已经向基于性别或种族的自动假设偏斜。

当我们从头开始建立人工智能系统,我们必须认识到这一点。
数据要完备透明并且不受我们自身偏见的影响。
只有这样,人工智能系统才能够以中庸之道的办法为我们供应最好的支持。

不断的演习和评估

一旦系统创建并集成到业务网络中,事情就无休无止。
偏见仍旧会随着韶光推移而引入——尤其当新数据输入到系统中时。
有助于履行新系统的员工必须得到适当的培训。
他们必须知道如何探求我们称之为偏见蔓延(creeping bias)的东西。
随着系统的发展,它要始终避免人为毛病。

种族和性别多样性

例如,如果一家公司正在引入面部识别软件,它应对系统进行培训,使系统能创造公司员工和客户的多样性。
无论用户的种族背景如何,它必须能够识别精确的性别。
确保新人工智能项目的技能职员和贡献者本身就具有多样性,这是一个好的开端。

创意多样性

只管种族和性别多样性彷佛很随意马虎纠正,但它们并不是唯一可能终极进入人工智能系统的偏见类型。
到目前为止,人工智能技能是由一小部分人创建的,他们都拥有博士学位。
他们并不能代表普罗大众。
由于这个缘故原由,首席信息官必须意识到这样的须要——在人工智能程序中建立背景多样性。

随着这些系统的成熟和发展,在开拓过程中让更多来自广泛背景的职员参与进来,这是很主要的。
这该当包含来自所有领域的创意人士。
这个想法是为人工智能软件供应来自尽可能多的来源的尽可能多的有效信息。
这终极会成为人工智能成功融入业务系统的最佳机会。

严格且持续的测试

无论履行团队如何努力整合新的人工智能系统,仍旧存在一些偏见会随着韶光流逝进入流程的风险。
为了避免这个,首席信息官们必须引入一个持续的测试和评估软件的过程。
该当为终极用户供应这样的工具,这些工具可以在他们所利用的程序中检测和纠正偏见——一旦他们创造偏见的话。
人工智能可能是一种改变游戏规则的商业技能,但条件是我们始终对偏见保持当心。

危急管理和应对——做好准备

末了,假设你并不总能把事情弄清楚。
积极主动地与法务、企业风险管理、人力资源,公司通信等一起,为处理灾害供应实用,久经磨练的操持。
坦诚面对你的偏见。
自动化是未来,但我们须要以开放的眼力和清晰的头脑进入未来。