原创 | 人工智能企业的风控框架_人工智能_风险
文 / 鲍勇剑、涂威威、袁文龙
风险代表着人们对负面影响事宜的概率评估。风险成分大概来自外部力量,也可能由内部薄弱环节引发。风险对企业的存在、运营和发展带来威胁。人机共处的企业中,人工智能作为外部和内部活动的枢纽中介,也一定成为各种商业风险集中涌现的领域。
在《常态事件》(Normal Accidents)中,已故社会学家佩罗(Charles Perrow)极有预见性地指出:在提高生产力的同时,技能创造了一个强关联的系统,它一定制造风险。事件不再是意外事宜,而是强关联系统的常态。佩罗的预见在人机共处环境中得到充分表示。
人工智能是一种系统能力,可以阐明和学习外部供应的数据,并利用数据学习能力去实现设定的目标,完成规定的任务。在此过程中,它能够通过机器学习的反馈回路,不断灵巧调度温柔应与外部环境的关系,以至于能够在得当的时空情境下,作出得当的选择。环顾旁边,我们知道,人工智能已经深入到人类经济活动的各个方面。
据普华永道司帐事务所估算,到2030年,人工智能及其运用对环球经济会产生15.7万亿美元($15.7 trillion USD)的经济影响,大约靠近中国2021年的GDP($17.8 trillion USD)。除了规模,人工智能深入企业活动的程度也从点、线到全部系。以人工智能企业第四范式为例,其运用从增强企业单个功能发展到涵盖产、供、销、研、客服、物流全部系的聪慧企业方案。遍及的人工智能也制造了一个新型的强关联系统,由此派生的管理风险对许多企业还似初识。
因此,建立对人工智能企业风控的全面认知刻不容缓。本文意图供应一个别系的风控框架,帮助企业识别人机共存征象中的新型风险。
已故科学家霍金(Stephen Hawking)曾警示:人工智能会带来人类生存层次的危急。在哲学上,人工智能确实提出许多宏不雅观科学哲学问题。在技能建模过程中,工程师会碰着各种各样的数据代码问题,引发系统缺点。在公共政策方面,人工智能引发对社会掌握和影响能力的合法性的关注。不过,这些不是本文的重点。人工智能已经被引入企业管理全部系,本文侧重谈论它连带产生的企业管理风险。人工智能在企业计策、日常运营、组织构造和企业文化四个方面都会衍生新型风险,将之综合在一起,可组成一个人工智能的企业风控框架(见图1)。
公元前3500年,在美索不达米亚的幼发拉底河流域,人们每逢大事就会讯问当地巫师能否成事。巫师会评估正向和负面成分,并在泥板上标出比较剖析的结果。中国古代的《易经》也为决策者供应未来情境的组合剖析。它们可以被视为人类最早的风险思维和对外部磨难的规避活动。不过,规避外部磨难和风险管控有差异。前者是被动认识,后者代表人们的主动认知能力。
风险,特殊是技能风险,是一个当代观点。风险指的是可能发生的意外或失落误的概率,以及对操持中的活动带来的危害与冲击。它与早期朴素的避祸意识有差别。避祸是假设磨难来自外部环境成分,人们无法影响和掌握,只能选择躲避。风险是一个概率问题,对它的影响,人们可以戒备、避免、降落、补偿、规复。简言之,通过人们故意识的管理活动,风险能够得到掌握。
本文建议的风控框架便是识别人工智能的连带风险并加以掌握的一套管理步骤。以下,先指出四类风险的问题性子,剖析它们的来源,然后提出风控建议。由于人工智能对企业活动的系统改造还是一个进行时态征象,这一框架只能是基于现有情形的总结,并须要与时俱进。本文的贡献在于汇聚零散的风险剖析为一个别系框架,并为将来的批驳和反思供应一个集中的靶向。
计策风险
2018年5月25日,欧盟的数据保护规范(General Data Protection Regulation, GDPR)正式生效。许多AI公司惊惶失措,不得不暂时停滞在欧洲的业务。事实上,欧盟在2012年就颁布了规范,并解释生效时日。如果在欧洲有业务的公司董事会理解它对数据网络和利用的影响,企业是有足够的韶光采纳技能方法,适应变革的。遗憾的是,许多企业的董事会成员缺少人工智能知识,无法应时反应。
董事会没有在管理构造层面设计和实行有针对性的政策只是AI计策风险的一个表现。其余两个普遍的表现包括企业高管看不到AI改变商业模式,以及引入人工智能初期可能存在的代价冲突。
例如,美国滨州的一个地方政府人文做事部与人工智能公司互助开拓了“反虐待儿童”软件 “AFST”(The Allegheny Family Screening Tool)。通过综合各个部门的信息,这一软件可以对本地儿童是否可能遭受家庭虐待作出风险评估,还能提出有预见性的干预方法。可是,在履行时,创造一个重大问题。卫生部门接到紧急乞助电话的频率是预防软件的一个主要参数。黑人家庭拨打医疗乞助电话的频率一样平常高于非黑人家庭,只管对乞助电话频率参数作过加权,系统还是给黑人儿童受虐待以更高的风险值。当软件推出后,公司和政府机构都受到各界严厉的批驳。对这一有明显种族歧视的技能剖析后果,董事会无疑是监管缺失落、反应迟缓的。
造成董事会成员反应迟缓的一个根本缘故原由是存在认知代沟。董事一样平常是奇迹有成的商业精英,他们的知识构造形成于10-20年之前。对付最近10年兴起的人工智能,董事们缺少必要的知识准备,存在认知代沟。和大多数管理者的认识类似,董事会成员理解AI能促进流程自动化、生产规模化,能提高生产效率。但是,对AI的全部系影响以及外部监管的反应,他们有认知盲点。这直接表示在管理构造的毛病上。管理构造涉及企业计策中的大关系、长远发展目标和根本规范。董事会成员的认知代沟致使他们忽略人工智能带来的颠覆性变革。
如果企业高管只是关注人工智能对生产效率和规模的正面效果,就可能造成决策短视。初期,改造现有流程的效率,降落本钱,这是管理者对新技能的起始诉求。但是,随着技能和运用的演化,高管必须要站在商业模式的高度思考,人工智能若何创造新的代价、新的客户关系和新的竞争能力。从已经发生的实例看,高管须要理解人工智能不仅可以改变若何做,还能影响做什么的问题。做什么?若何做?在哪里创造差异化的代价?当人工智能直打仗及到这些问题时,企业须要重新想象自己的商业模式。
其余,强大的AI技能有可能带来道德风险,并有违于公司的核心代价不雅观。与过去的技能比较,人工智能更能够刺激和培养特定的消费行为。而消费过度成瘾的时候,它就成为一种道德伦理的寻衅。强大的AI技能还可能在做事特定客户的同时,对制度规则和其他利益干系者造成间接、灰色、滞后性的侵害。
一个范例的企业案例是“脸书”(Facebook)。脸书的后台AI技能可以识别利用者的兴趣偏好,并加大推送同一类型信息。许多患有厌食症的青少年,由于不断收到推送的同类信息而强化了厌食行为。在美国2016年大选过程中,一家名为“剑桥剖析”(Cambridge Analytics)的咨询公司与脸书互助,利用AI技能,掌握社交媒体中的政治话题信息,影响选民的投票行为。公司的一些员工明确反对利用技能操纵选举的做法。后来,剑桥剖析被告上法庭,这些员工成为了法庭证人。
在人工智能运用领域,商业实践和公司代价不雅观相违背的征象屡屡涌现。缘故原由很多,个中最突出的一个是利用AI实现单一目标,缺少制约和平衡。当AI被引入企业时,它每每与一个显著的需求干系,例如识别和强化某莳花费和信息利用习气。但是,强大的AI技能也会带来负面溢出效应,例如操纵政治的能力和制造病态消费习气。它们与公司和员工的社会代价不雅观发生冲突,终极不仅离散民气,还可能给企业致命一击。剑桥剖析这家公司后来以破产告终。
哈贝马斯(Jurgen Habermas)说:真理就在比例中!
对付越来越强大的人工智能,把握它的适度性不是一件随意马虎的事情,特殊是关系到主不雅观性极高的代价不雅观。人工智能企业也创造,没有一付通用的妙方能解除AI涉及的道德风险。比较得当的方法便是始终保持关注,始终以反思和反省的态度看待技能的社会影响。为此,设立公司内部的伦理委员会,约请外部伦理专家做第三方考验,借鉴行业履历和教训,是AI企业现行的风控实践。
其余一个有用的方法是做“蒙眼品尝”(Blind taste)。适口可乐和百事可乐曾经有过“蒙眼品尝”的营销方法,把牌号拿掉,让消费者直接品尝味道来评估喜好。专家建议,借用同样的逻辑,用不同的演习数据建立人工智能预测模型,包括拨打紧急医疗电话的数据。然后,从模型中抽出特定性子的数据,例如紧急医疗电话,看模型是否仍旧可以供应有效的预测。这个设计能办理模型某个参数造成的自我循环、自证合理的问题。
人工智能的道德风险将始终寻衅管理者的认知。就像著名的道德困境——“滑轮车困境”(Trolley dilemma),是否让滑轮车改道,实则是一个是否可以捐躯少数、救助多数的两难选择。无论在自动驾驶运用,还是自动化替代人工的管理决策上,人机共处的企业将不断碰着两难的道德困境。这哀求最高决策者从计策的高度正视这种风险,并通过集体反思,做出符合当地详细情形的选择。涉及到人工智能的道德风险,人既是问题的制造者,也是答案的唯一来源。图2概括总结了计策风险方面的问题、剖析和方案。
运营风险
AI运用在交通工具中已经很普遍了,可是,车主对AI的功能却有截然不同的反应。车主可以接管AI对道路选择的建议,但不太乐意选择AI的自动驾驶功能。研究表明,人工智能时常碰着“真实性”偏见(Authenticity)的寻衅。在车主看来,路况建议的AI功能是一种“客不雅观”的真实,可以接管;而自动驾驶功能则涉及道德判断的“主不雅观”的真实,一样平常难以接管。生理学家早就指出人在决策过程中受到多种偏见的影响,例如寻求确定的偏见(Confirmation bias)、感知框架的偏见(Framing bias)、归因的偏见(Attribution bias)、锚定偏见(Anchoring bias)等。对人的认知和决策偏见,管理学已经逐渐摸索出一套对应温柔应的方法。但是,对人工智能技能引发的新偏见,例如“真实性”偏见,管理学还没有比较好的应对方法。在运营互动过程中,新偏见也连带出新风险。
加州伯克利曾经发布一份极有行业影响的报告,指出美国金融公司智能算法支持的做事比人工做事收费低40%,但算法对少数族裔申请的房屋按揭收取额外的利息。类似情形在英国和新加坡也涌现过。现在,各国对智能算法利用过程中的公道性有鼓励政策,但是,是否实行和若何实行,还取决于金融公司的实际操作。由于监管者的专业知识水平滞后于人工智能企业,政策只能暂时鼓励自我监管。这增加了企业创新的宽松度,但也带来事后问责的风险。
自我监管不尽人意的例子很多。2018年,网络企业亚马逊的人事招聘算法被创造存在性别歧视,自动降落女性申请人入围概率。几年前,苹果公司的信用评级系统也涌现对女性消费者的歧视。苹果创始人伍兹尼亚克(Steve Wozniak)的信用额度是他妻子的10倍,只管他们的财务和账户是完备共享的。这些缺点不仅增加了运营中的法律风险,也不利于优化运营过程的效率。
运营风险还发生在互动过程中。它包括内外利益干系者之间的互动。首先,它表现在不可理解和难以阐明的风险上。员工对人工智能自动给出的建议大概不理解;客户、消费者对人工智能的反馈也会感到有失落常理,不可理解。其次,它表现在难以举证性上。对人工智能选择决策的后果,系统本身难以在事后举证它的合理性和合法性,这种情形在监管部门检讨和审计人工智能造成的不良后果时常常涌现。
运营风险还表现在内置的偏见上。人工智能的强化学习起始于演习数据。如果演习数据有偏见,人工智能会强化这种偏见。AI模型是工程师建立的,建模工程师自身的认知偏见也随意马虎内置在系统中,终极造成负面效果。内置的偏见与能够利用的演习数据库有关。企业在建立AI运用时,每每从内部的少数人成功的行为过程开始。而这些人的成功已经受到诸多社会成分影响,例如种族、教诲背景、家庭收入、社会关系等。这些隐性变量也同时通过演习数据旁边AI的强化学习,并成为决策规则的一部分。
互动过程的运营风险源不止是工程师,还有利用者。微软曾经为推特打造了一个发言机器人(Chatbot),但很快就取消并下线。由于,在互动过程中,利用者各种各样的污言秽语和种族歧视辞吐把发言机器人带坏了。由此,我们看到,运营风险既可能来自内部,也可能来自外部。
AI系统遭遇监管质询时,难以举证合理性。由于系统变量从千万级到亿万级,很难挑选和分辨出是哪一个单独变量导致决策失落误和不良后果。特殊是监管本身有滞后属性,一样平常发生在社会不良后果已经形成的时候,这为溯因举证带来困难。例如,蚂蚁金服曾经能够利用阿里生态中的各种数据,自动天生对小微企业的商业贷款决定。这个过程调动超过3,000个数据来源。如果有企业质询阿里算法的合理性,蚂蚁金服很难阐明若何由这3,000个数据来源推导出商业决策。换到一个严监管的环境,比如欧盟,这套算法就会立即遭遇监管危急,由于企业有任务阐明消费者得到不同做事的依据。算法的难以阐明性成为运营风险的一个要素。
导致不可理解性和难以阐明性的成分很多。概括起来,紧张是下面几个缘故原由:一是机器运作逻辑和人脑思维逻辑不一样;二是人的思维受有限理性和直不雅观情绪规则影响;三是人的思考每每是线性推理的,抓大放小、有始有终,而机器则可以面面俱到,平走运转,来回来回;四是社会互动过程的繁芜动态特色,人工智能不一定能涵盖社会文化中隐性和奇妙的变革。
简而言之,人工智能运转过程不须要也不依赖人的理解性,也不一定须要善解人意。对人而言,它是一个黑箱过程。这是AI机器学习强大的缘故原由,但也造成互动过程中的不可理解性和难以阐明性。
也是由于受到监管的倒逼,运营风险是各种风险中首先被重视的。过去,人们认为人工智能运营过程的黑箱是无法避免的技能特色。现在,多种办理方案进入试错阶段。它包括提升运营过程可视化水平,用自然措辞阐明代码模型和运营过程,帮助监管者和消费者理解AI决策的依据和逻辑。现在也已经有许可溯因、文件留档和过程示警的机器学习模型。例如,IBM的开放源平台(Watson OpenScale platform)已经可以支持决策溯源需求。其余,事先审核演习数据库的隐性偏见、内置识别偏见的变量、培训提高工程师的社会意识等方法也在行业中推广开来。
肃清工程师的自身偏见,也可以通过人力资源政策来实行。一些企业积极雇佣少数族裔、女性和新移民工程师,他们的天下不雅观和文化背景为企业多元化增长力量。多元化是对冲单一思维带来的偏见的好方法。如软件行业的莱纳斯法则(Linus's law)所言:有足够丰富的眼球,任何缺点都是肤浅的。
在降落运营风险的实践中,法律领域相比拟较积极。它与缺点后果的严重性和监管的力度有关。法律领域的人工智能对当地详细情形、小数据和厚数据更加敏感。一个预测判断减刑犯人是否会重新犯罪的算法不仅涉及到个人命运,还关系到社区安全。因此,法律领域的人工智能更重视以特色数据为中央,用特殊的代价回归模型(Shapely analysis)来演习机器学习社区动态变量,避免广谱性、通用算法带来的预测缺点。
总之,人机共处企业中,运营风险一贯会有,但是风险对冲的方法也层出不穷。图3概括了运营风险的问题特色、来源剖析和应对方案。
构造风险
组织构造为计策做事。任务性子、决策角色和威信主导组织构造设计。当人工智能进入计策层面后,传统的构造设计就不能知足新的计策哀求,这会带来构造性风险。
在本刊曾经揭橥的一篇文章《高维聪慧企业的认知协同策略》(2021年第7-8期)中,笔者剖析,人工智能化的企业中,任务分工的基本特色发生重大变革:从劳务分工(Division of labor)演化到认知协同(Cognitive collaboration)。任务决策涌现决定(Decision)、反思(Deliberation)、设计(Design)和探索(Discovery)四种认知活动范畴。在AI支持下,大多数日常活动都可以自动化,可以由机器去“决定”,而其他三类认知活动,则哀求不同风格和办法的人机协同。在人工智能的机器这一壁,强化机器学习,有监管和无监管的机器学习、神经网络机器学习等工具为人机协同展开一个广泛的选择区域。但是,受制于自然人的学习能力、有限理性(打算、影象和感知能力的有限性)和去学习能力(Unlearning skill),自然人每每自陷于组织遗留下来的构造选择。机器可以同时接管等级制构造、扁平构造或者二者任意程度的组合、变革,而员工有历史性依赖,很难随事情任务的境遇做灵巧、共时的切换。当员工必须与机器协同事情时,构造风险便涌现了。
人工智能化的企业的构造风险紧张表示在三个方面。
第一,AI赋能后,组织的核心流程发生重大变革。它包括:数码化(Digitization)——纸质信息记载办法转换为数码存储和交流;数字化(Digitalization)——事情任务和流程通过互联网、社交媒体和物流网办法实行;数据化(Datafication)——以有质量的数据形式整理企业资产,在高质量数据剖析的指引下组织企业资源和能力;数字孪生(Digital twin)——企业的存在和能力同时具有物理实在形式和虚拟数字形态。以这“4D”为根本,企业重新核阅核心业务流程。这个过程中,企业既须要等级构造,又须要扁平构造,而且在特定情境中,两种构造共存,两种构造随情境转换。这样的灵敏组织构造哀求超过传统构造的支持能力。实践中,已经AI赋能的核心流程由于得不到对应的组织构造支持,造成重重抵牾。
第二,在可以完备自动化的事情任务环境中,机器主导决策;在涉及繁芜人际关系的任务环境中,机器辅导人决策;在政治敏感性强的任务环境中,人主导决策;在探索性的任务环境中,人勾引决策。因此,人工智能化企业既哀求员工有不同程度的认知能力,又须要人机认知能力之间的高度协同。在前三次工业革命(机器,电气,信息)中,人与技能都经历了很长的磨合期,这次也不例外,乃至更严厉。两种组织能力要耦合为一股,它一定经历上高下下的波折。
第三,AI赋能后,事情任务属性发生变革,事情角色的威信性不同于往常。人工智能技能的显著地位让员工产生被边缘化和事情异化的生理感想熏染,这影响到员工对企业的忠实度、归属感和事情承诺。
为掌握构造风险,人工智能化的企业摸索出一系列方法。首先,企业认识到核心流程与为客户创造代价之间的密切关系。梳理出核心流程,然后履行数码化、数字化、数据化和数字孪生。这四个步骤的每一步都试图将之与人工智能的运用相结合。而组织构造设计必须做事于核心流程的人工智能化。建构人工智能赋能的核心流程,人机共处企业要思考下面几个问题。
第一,在人工智能支持下,企业规模不再是竞争上风来源。规模不是竞争要素后,企业的核心竞争力涌现什么变革?
第二,与外部供应链高下游之间的协同成为一个竞争热点和弱点。如此,我们管理专长有多少是放在与外部协同能力上?供应链之间由于紧密联动而始终隐含风险,我们有没有识别和应对的管理专长?
第三,如果竞争者可以用人工智能算法快速复制我们的核心流程,我们在本钱上的上风和劣势如何?假如有本钱上风,它能持续多久?
第四,赋能后的核心流程是否能够为新的客户、新的代价形式做事?例如数据剖析演化出预测做事、计策情境剖析等。
第五,赋能后的核心流程是否为企业带来跨界互助和同盟的机会?例如,本来用于预测性物流的算法能力可以成为与运输企业互助的成本。
除了核心流程构造改造之外,为肃清员工对人工智能的惶恐心态和抵触行为,企业要率先从对员工能产生增强效果的事情任务开始。让员工直接感知到人工智能带来的好处。同时,企业该当选择一组干系性高的事情任务和流程,厘清它们之间干系性的性子和方向。然后,利用人工智能,同步提升这一组事情任务的效率。如果只是提升单个功能的效率,只会对有强关联的事情任务产生压力,让其他事情岗位的员工更加焦虑。同时提升一个群组的事情任务流程,能够对各个流程中的员工表现产生正反馈,让全体群组的员工有得到感。图4概括总结了却构风险的问题和解决方案。
文化风险
在人工智能对企业文化影响的谈论中,一个有误导性的趋势是强调“数字信赖”文化,认为包括区块链在内的去中央化数字技能会根本性地改写组织内部和组织之间的信赖文化。这是一种不全面的认识。笔者曾经在本刊发文(《区块链改造组织信赖》,2018年第10期)指出,区块链办理的是不信赖问题。而信赖与不信赖不是一个共同维度上的两个极度。肃清或降落不信赖当然会促进信赖。但是,影响信赖的成分有人们感知到的专业能力、仁慈和友善的品质,以及相互欣赏的情绪。至少,到目前为止,人们还很难在相互欣赏的情绪方面建立起与人工智能技能的关系。因此,强调用人工智能培植与客户、消费者和员工之间的信赖文化,是不全面的,乃至是一种误导。事实上,但凡涉及到道德判断和代价评估,消费者和员工对人工智能都有信赖问题。这种文化风险将长期存在。若何建立人机共处环境中的团队信赖是这种文化风险中的突出问题。
另一个文化风险是关于劳动代价和商品代价的。深圳郊区的大芬村落是一个环球著名的“画家村落”,以模拟外国油画作品有名。几年前,模拟凡高画了2万幅作品的赵小勇师长西席终于有机会访问欧洲。站在凡高原作面前时,赵师长西席才深深感想熏染到原创和复制之间的差异。人工智能指数级提升企业生产的规模化效应,其模拟再生产的能力影响消费者对产品代价的生理评估。机器人饭店的饭菜可能保持了大厨原创的色、喷鼻香、味。可是,消费者的生理感知是一个繁芜且奇妙的过程。短缺的一种气氛会让机器人饭店给人一种养鸡场投喂的觉得。类似的代价评估也会发生在企业员工的生理活动中。在许多领域,事情越来越成为人的第一须要,是人定义组织身份和建立集体生理身份的必要作业。人工智能赋能后,当作业变得极其随意马虎的时候,事情的异化和生理的空虚则演化为新的问题。企业是机器的组织,还是人的组织?这涉及到文化代价不雅观的风险课题。
第三种文化风险来自于探索性和创新性事情任务的模糊性。人工智能随意马虎在效率提升领域率先得到成功,由于效率和本钱范畴的因果变量关系随意马虎指认,随意马虎设计自动化流程。而探索和创新事情任务的计策目标每每是模糊的、变革的、难以量化的。探索事情任务的表现更难定性和定量。这带来人工智能化过程中的两极分解征象。创新事情能否实现预先设定的目标还取决于许多有时成分。这样,人们更加乐意选择能很快显现详细表现的任务。组织的资源也会向成功结果可视性高的任务倾斜。长此以往,将危害企业的创新文化,影响企业持续发展。
掌握文化风险可以从下面几个方面动手。首先,理解信赖不仅要有技能支持,更要有人与人之间友好的互动,情绪信赖和专业能力信赖同样主要。人工智能技能在情绪信赖方面的功效是有限的。为战胜人机共处企业环境中的团队信赖问题,可以从三个方面开始。
第一,建立团队成员之间对彼此能力的信赖。认为队员有实行任务的能力,可以依赖他们的专业能力,这是团队信赖的根本。因此,要让人工智能普遍地对每个员工赋能,避免机器不平均赋能加剧团队员工的能力差别。
第二,支持团队成员之间积极的互助。在沙场上,战友可能会冒着生命危险救助受困的伙伴。在阛阓中,队员大概会放弃一些自己的工作业绩,玉成掉队的伙伴。在人工智能的模型中,这些举措会被标识为非理性的行为。但是,正是这样的干系救助强化了团队信赖。企业要有机制识别互助行为,并可以置人性决策于人工智能决策之上。
第三,鼓励以团队为建制,利用人工智能工具,培养对人工智能预测功能的利用能力。像任何专业领域一样,团队成员对技能的理解能力是有差别的,个人专业水平有高低。因此,利用人工智能过程中,判断水平会参差不齐。如果以团队为建制,并肩事情,集体判断,不仅会提升个别队员的判断水平,也能够增强全体成员对人工智能的预测功能的信赖。
在建立社会信赖方面,企业要建立AI为人做事的代价不雅观。企业要利用正式和非正式的办法宣扬,让人工智能为良善的社会关系做事。针对人工智能在支持效率活动方面表现突出的特色,企业高管要对探索性、创新性的任务有不同的方案,对任务表现有对应的评估标准,对失落败的结果有“庆祝新鲜的失落败”的态度。须要强调的是,人工智能技能也同样可以为探索创新任务做事,重点是在对结果变量的考察评估上。评估标准改变,还是可以利用人工智能的增强功能。
如何在人机共处企业推崇信赖文化?IBM公司的做法有参考代价。首先,在董事会层面建立人工智能和伦理委员会,向全公司通报一个主要旗子暗记:人工智能是计策大事宜。第二,对付人工智能的开放和利用,向全体员工发布“信赖和透明”辅导原则,破除环绕人工智能的迷思,帮助全体员工理解为什么、若何、在何处运用人工智能。第三,坚持与值得信赖的外部伙伴互助,从源头戒备来自外部互助者的风险。2020年,IBM加入“人工智能伦理的罗马倡议”,积极参与欧盟关于人工智能运用的规则制订,这为企业探求可靠的互助者供应一个广泛的朋友圈。第四,为人工智能技能建立开源代码做贡献。IBM有一个“公正AI”开源代码工具箱(AI Fairness 360),这个工具箱帮助志同道合的外部互助企业培植一个信赖社区。
总之,人机共处企业的文化风险紧张与社会信赖、组织代价和创新计策有关。人工智能对这三方面长期的影响不容忽略。图5概括总结了文化风险的问题和解决方案。
须要指出的是,上述四类风险不是单独存在的。它们之间有极强的关联性。当一类风险得到妥善掌握后,其他三类风险的管理也会更加顺利。四类风险之间的关联性和性子则是未来值得研究的课题。人机共处的类型可能会有多种形态,不过,企业风控框架的基本维度具有稳定性。管理者可以根据形态的详细特色对风控框架做调度。
结论
人机共处时期的企业管理有两个令人担忧的征象:一个是对人工智能效益的重视远远高过对风险的关注;另一个因此单独和割裂的态度对待系统风险问题。而这两个征象又会反噬技能效益。本文建议用系统和辩证的态度看待人机共处的效益和风险,由于当代社会的枢纽性活动已经从如何生产与分配社会资源的问题转移到如何履行风险管理的问题。
已故社会学家乌尔里希(Ulrich Beck)在他的首创性著作《风险社会》中指出,风险的产生、外溢、分布、戒备和掌握已经成为当代社会的管理纲要,纲举目张。他剖析当代社会之前的社会形态有一个共同的特色,即环绕着社会资源的生产和分配来组织人类社会。而技能的大发展已经使其从被利用的工具变成改造社会的力量。同时,与经历过亿万年除错过程的自然界不一样,人造的技能尚在利用中除错。因此,它一定带来风险。技能力量越大,风险程度越高。这便是我们目前面临的人机共处的天下的核心抵牾。我们的研究不过是理解和缓解这一核心抵牾的考试测验。
有一种风险未被包含在上述框架中。它便是可能的极度不愿定性,也是经济学家奈特(Frank Knight)所定义的“无知的未知”(The unknown unknown)。人工智能是否潜藏对人类的灭绝力量?这个问题属于“无知的未知”,即我们“不知道所不知道”的征象。藏身其后的极度不愿定性可能带来灭绝危急。牛津大学“人工智能研究中央”的博斯特伦(Nick Bostrom)指出,当我们看到极度不愿定可能带来灭绝危急时,统统已经太晚,命运将无法改变。有些技能崇奉者认为这是危言耸听,他们相信统统皆可掌握。只有读过《百年孤独》,人们才能体会那幻影般不可知的力量能如何扭曲制造光怪陆离的人生。待到能够体会时,改变已经不可能。
《百年孤独》是一部拉丁美洲的魔幻现实主义作品。哥伦比亚作家加西亚·马尔克斯(Gabriel Garcia Marquez)描述了布恩迪亚家族百年七代的兴衰、荣辱、爱恨、福祸、文化与人性中无法躲避的孤独。小说中的人物时而通鬼神,时而钟情于科学技能。每一代人各有奇诡的折腾办法,却总是以孤独命终。无论他们如何上天入地,通鬼拜神,这七代人还是被神秘的外部力量笼罩。孤独无意义注定是他们的宿命。
理解欧洲外部力量几个世纪以来对拉美社会的摧毁性打击是理解《百年孤独》的钥匙。加西亚·马尔克斯曾经近乎绝望地表示:“拉丁美洲历史是统统巨大然而徒劳的奋斗总结,是一幕幕事先注定要被人遗忘的戏剧总和。”1518年,骑着高头大马的西班牙人科特斯(Heman Cortes)涌如今墨西哥时,当地的阿兹台克土著人完备懵了。从军事技能到社会文化,欧洲对当地人而言是完备未知的新征象(unknown unknowns)。人数上有绝对上风的土著人首先在思想上被征服,然后遭受肉体的屠戮而无还手之力。在拉美的场景里,看到极度不愿定性涌现之时已经是终场的前戏。
人工智能会带来另一幕拉美剧情吗?我们宁肯托其有,不可信其无!
关于作者 | 鲍勇剑:加拿大莱桥大学商学院终生教授,复旦大学管理学院EMBA特聘教授;
涂威威:第四范式副总裁,主任科学家;
袁文龙:加拿大曼尼托巴大学阿斯皮尔商学院创业学讲席教授。
任务编辑 | 刘永选(liuyx6@sem.tsinghua.edu.cn)
《清华管理评论》联系办法
订阅、广告及商务互助
010-62788163
shanghl@sem.tsinghua.edu.cn
本文系作者个人观点,不代表本站立场,转载请注明出处!