人工智能伦理培植的目标、责任与路径:六个议题及其依据_伦理_技巧
内容提要:人工智能伦理培植的必要性已形玉成球共识,但培植目标、重点任务和实现路径仍存在较大不合,概括为六个议题。本文首先先容AI的两大类紧张技能——强力法和演习法,在此根本上总结AI现有技能的三个特性,作为AI伦理的技能依据。同时,以环球公认的福祉原则作为AI伦理的根本依据。本文立足于这两个依据,阐述AI伦理培植应具有双重目标——同时回答该当和不应该让AI做什么,进而磋商其余五个主要议题:AI的安全底线,AI功能的评价原则,AI管理任务的落实路径,AI主体状况变迁的可能性,以及一种全新的创新模式——公义创新。
经由几年的广泛谈论,人工智能(Artificial Intelligence,简称AI)伦理培植的必要性已形玉成球共识。但是,关于AI伦理的培植目标、重点任务和落地路径,仍存在较大的不合和辩论,也有些关键问题尚未引起足够的重视,文本将这些内容概括为六个议题。显然,培植目标的定位将决定重点任务和落地路径的选择,从而决定AI伦理培植的发展大局。关于AI伦理培植目标的紧张不合是:AI伦理该当是双重目标(即同时回答该当和不应该让AI做什么),还是单一目标(即紧张回答不应该让AI做什么)?如果是单一目标,一些重大议题将被完备或部分地打消。引起不合和争议的一个主要缘故原由在于,对现阶段AI技能特性的认识存在巨大差异,从而导致对AI社会意义和伦理风险的截然不同乃至完备相反的判断。为此,有必要梳理七十年来AI研究的紧张进展,澄清现阶段AI技能的紧张特性,形成AI伦理的技能依据。同时,以环球公认的福祉原则作为AI伦理的根本依据。本文根据这两个依据谈论AI伦理的六个议题。
一、人工智能的强力法
AI经由三次浪潮取得了大量进展,各种技能路线层出不穷,受到研究者较多关注的有两大类技能——强力法和演习法。强力法又包含推理法和搜索法两种紧张类型,推理法是在知识库上进行推理,搜索法是在状态空间中进行搜索。推理法常日由一个推理机和一个知识库组成,推理机是一个卖力推理的打算机程序,每每由专业团队长期研发而成,而知识库则须要研发者针对不同运用自行开拓。
一样平常来说,推理机的事情办法是:针对输入的提问,根据知识库里的知识进行推理,给出问题的回答。下面用一个简化的例子加以解释。假设我们要用推理法回答“就餐”这个运用处景的有关问题。为此须要编写一个关于“就餐”的知识库,个中部分知识如表1所示。表1中的第一条知识是一个逻辑公式,它的含义是:餐具可以盛食品;表中的第二条知识food(rice)也是一个逻辑公式,它的含义是:米饭是食品;表中的其他知识类似。
表2列举了一些问题,比如第一个问题“hold(bowl,rice)?”问的是:碗能盛米饭吗?推理机利用知识库中的知识进行推理,可以给出此问题的回答yes。表2中的第三个问题轻微繁芜一点,它问的是:碗能盛什么?回答一样平常不是唯一的,但推理机仍旧能够根据知识库中的知识,找出所有精确的答案:碗能盛米饭、能盛汤……推理机还可以回答更繁芜的问题。
值得把稳的是,一样平常情形下,由推理机得到的回答,并不是知识库中存贮的知识。例如表2中的三个回答都是推导出来的,在知识库(表1)中并没有直接保存“碗能盛米饭”“碗能盛汤”等答案。因此,知识库推理与数据库查询不同,不是提取事先保存的答案,而是推出知识库中没有保存的答案,可见知识库加推理机的组合能力之强大。知识库上的推理被认为是一种智能功能,是其他信息技能所不具备的。
目前强力法受到一个条件的限定——封闭性。①封闭性在推理法上的详细表现是:哀求存在一组固定、有限的知识,可以完备描述给定的运用处景。对付上面的“就餐”场景,如果存在着不可以盛汤的“破碗”(并且将“破碗”也当作“碗”),那么表1中的知识就不能完备描述这样的“就餐”场景,由于根据这些知识推出的某些回答(如“碗能盛汤”)在这个场景中是禁绝确的。
上述“就餐”场景是特意设计的一个小例子,而实际运用中的场景都很大、很繁芜(否则就不必运用AI技能了),有时不知足封闭性条件。比如一个就餐场景中,一开始没有破碗,根据知识库推出的回答都是精确的;可是一段韶光之后涌现了破碗,根据知识库推出的某些回答就禁绝确了。这种情形也是不知足封闭性条件的。
关于推理法对付全体AI的重大意义,深度学习的三位领军学者Geoffrey Hinton、Yann LeCun和Yoshua Bengio(他们共同得到2018年度图灵奖)在深度学习的总结性论文中指出:深度学习的根本性局限在于缺少繁芜推理能力。(cf.LeCun et al)而推理法代表着人类关于繁芜推理能力的最高研究成果,以是推理法的局限性也代表着全体AI现有技能的局限性,封闭性对推理法的限定也是对全体AI现有技能的限定。
二、人工智能的演习法
演习法哀求首先网络一组原始数据,并对个中的每一条数据都进行人工标准,做成演习数据集。然后用演习数据集演习一个人工神经元网络,用演习好的网络回答问题。
图1是一个人工神经网络的示意图。图中每一个圆圈代表一个“神经元”,每一个带箭头的线段代表神经元之间的一个“连接”。人工神经元网络便是由大量神经元和连接组成的网络。一个连接可理解为一条信息通道,并对通道中通报的信息进行加权运算;也便是说,一条连接首先从一个神经元接管输入数值,经由加权运算,再按照箭头的指向,向下一个神经元输出加权打算的结果。图1省略了所有连接上的权值。
如图1所示,一个神经元可以有多个输入连接,从而同时接管多个输入值。一个神经元也可以有多个输出连接,从而同时向多个神经元通报输出值。每个神经元能够独立地皮算一个大略函数f,即根据该神经元的所有输入值,打算得出函数f的值之后,作为输出值向所有输出通道同时发送,经由各条连接上的加权运算之后,通报给其他神经元。在图1中,是全体人工神经元网络的输入连接,详细输入值来自网络外部; 是全体人工神经元网络的输出,详细的输出值便是网络的打算结果。
图1 一个人工神经网络示意图
图1只画出了四列神经元,其他列被省略了。每一列神经元称为一个“网络层”。如果一个人工神经网络具有很多层,比如几十层、几百层乃至更多层,就称为“深层网络”,深层网络上的机器学习称为“深度学习”。
下面以著名的ImageNet图像分类比赛中的一个任务为例,解释演习法的事情过程。在比赛之前,组织者网络了一个大型图片库,包含1400多万张图片,并将个中一部分图片做了人工标注,这些带人工标注的图片作为演习数据集,参赛队可以用这些图片演习他们的神经网络。图片库中没有标注的图片作为测试集。在比赛中,哀求每一个参赛的图像分类软件,针对测试集中的大量图片,自动识别这些图片中动物或物品的种类,按识别精确率的高低决定比赛名次。
这个测试集中的图片被人工分为1000类,个中每一个类用0至999中的一个数字进行标注。一个类包含几十张到一百多张图片,这些图片中的动物或物品的种类相同,以是这些图片被标注为相同的数字。这1000个类包括7种鱼,第一种鱼的所有图片标注为0,第二种鱼的所有图片标注为1,……,第七种鱼的所有图片标注为6;还包括公鸡和母鸡,公鸡和母鸡的图片分别标注为7和8;还有26种鸟的图片分别标注为9至34等等;一贯到末了一类——卫生纸图片,标注为999。原始图片和人工标注的对照见表3。采集好的原始图片经由人工标注,演习集就制作完毕,可以用于人工神经元网络的演习了。
如果演习之后,一个人工神经元网络的精确识别率达到了预定的哀求(比如95%以上),就认为演习成功,可以运用了。精确识别指的是:对输入的任何一张图片,能够指认输出图片中动物或物品所对应的数字。比如输入公鸡的图片,人工神经元网络输出数字7;输入卫生纸的图片,则输出数字999。从实际效果来看,如果一个人工神经元网络达到了上述哀求,就可以认为,该神经网络“学会”了识别图片中的1000类动物或物品。
演习法也受封闭性的限定,详细表现为:可以用一组固定、有限、带人工标注的代表性数据,完备描述给定的运用处景。(拜会陈小平,2020年a,2020年b)所谓“代表性数据”,指的是能够代表所有其他数据的数据。例如,上面的图像分类比赛例子中,如果只用演习集中的图片演习神经网络,就可以演习出合格的网络,那么这个演习集就具有代表性,代表了图片库中所有1400多万张图片。反之,如果一个演习集不具有代表性,用它演习出的神经网络就不合格,比如精确识别率到不了预定的哀求,不能实用。
普通算法常日直接打算一个函数。例如,图2中的算法打算一个自然数x是偶数还是奇数,算法规定了每一步打算过程,根据干系背景知识可以得知每一步打算的含义和浸染是什么,进而判断这个算法是否精确。
通过“AI算法”与普通算法的比拟创造,它们是非常不同的。详细地说,强力法中的推理法是用知识和推理解答问题,哀求针对一个运用处景编写干系的知识库,然后用推理机回答问题,而不是像普通算法那样直接打算结果。演习法则哀求首先采集、制作演习数据集,演习出一个合格的神经网络,然后用该网络回答问题,而网络内部的运行一样平常是无法阐明的(至少目前如此)。
图2 打算自然数奇偶性的普通算法
由此可见,AI算法不仅更繁芜,更主要的是事理不同,难以直接根据一个AI算法判断它能做什么、不能做什么、怎么做的、做得是否精确等等。为此,本文给出AI现有技能的三个特性,从而为剖析AI伦理的六个议题供应技能依据。
AI现有技能的第一个特性是封闭性(详细含义如上所述)。一个运用处景如果具有封闭性,则运用AI的强力法或演习法技能,可以担保运用成功;如果不具有封闭性,则不担保运用成功(但也不一定失落败)。由于大量运用处景是封闭的,或者可以被封闭化,即改造为封闭的(拜会陈小平,2020年a),以是封闭性条件对付大量实际运用成立,也为这些运用的研发供应了一个不可忽略的关键指标。
AI现有技能的第二个特性是被动性。这些技能不具备主动运用的能力,只能被动地被人运用。有人认为,AI可以自我学习,从而学会它原来不会做的事情。事实上,这样的技能确实在研究之中,但目前尚未成熟,无法投入利用,而且强行投入利用会带来极大风险。还有人认为,围棋AI程序“阿法狗”可以自学下围棋,而且通过自学降服了人类。实在,围棋是一个封闭性问题,“阿法狗”技能只对封闭性场景有效(拜会陈小平,2020年b),而且“阿法狗”的所谓“自学”完备是它的设计者事先安排好的,与常日人的自学不是一回事。
AI现有技能的第三个特性是代价中性,也便是说,这些技能本身无所谓善恶,人对它们的运用办法决定其善恶。以推理法为例,推理机给出的回答会不会对人有害,完备取决于知识库是否包含可能隐含不良后果的知识。由于知识库是人编写的,所以是设计者决定了推理法的详细运用的善恶。也有研究者试图让AI自动探求自己所需的知识,即具有自动获取知识的能力(例如Chen et al,2012),但这些技能目前仍处于根本研究和实验测试阶段。
四、人工智能伦理的六个议题
议题1:AI伦理的培植目标——双重还是单一?
根据对伦理学的知识理解,伦理是人的行为准则,以及人与人之间和人对社会的责任。(拜会《辞海》缩印本,第221页)因此,AI伦理要回答两方面的问题:该当让AI做什么,不应该让AI做什么。同时回答两个问题是双重目标;只回答“不应该做什么”问题是单一目标。
鉴于天下各国都将“福祉”作为AI伦理的基本原则乃至第一原则,我们将福祉原则作为AI伦理体系的辅导性原则。显然,福祉的实现紧张源于努力而非限定。由于AI具有被动性,AI的发展必须经由人的努力,以是AI伦理该当勾引和规范这种努力,这便是双重目标的根本依据。
在双重目标下,AI伦理体系的根本架构(拜会陈小平,2019年)②如图3所示。在此架构中,AI伦理有三层构造:伦理义务(福祉)、伦理准则(如安全性、公正性等)和履行细则(详见议题3)。个中,针对不同的运用处景,须要设立不同的履行细则,于是AI伦理与社会及经济发展相互紧密关联,不再是空中楼阁。在这个架构中,传统创新须要受到伦理准则的约束(这种约束过去没有充分建立起来),从而匆匆使传统创新更好地做事于社会需求和重大社会问题的办理。
由于传统创新并不十分适宜社会重大问题的办理,以是我们提出了一种新的创新模式——公义创新(详见议题6)。公义创新和传统创新都要接管福祉原则的辅导,这是不变的。同时,根据公义创新的成果可以改变现有伦理准则的内涵,也可以增加或减少伦理准则,以反响社会发展对AI伦理的反浸染。在两种创新的匆匆动下,社会需求和社会重大问题不断得到办理,推动社会进步,形成新的社会需求和重大社会问题,从而实现社会及经济的螺旋式发展。
图3 人工智能伦理体系架构
议题2:AI的安全底线——技能失落控与技能误用?
在技能范围内,AI的伦理风险紧张有两类:技能失落控和技能误用/滥用。技能失落控指的是人类无法掌握AI技能,反而被AI所掌握,成为奴隶或宠物。技能误用/滥用指的是AI技能的非正当利用,由此带来对用户和社会的危害,但达不到失落控的严重程度。技能误用/滥用是目前存在的现实伦理问题,亟需加强管理;而技能失落控是人们的最大担忧,干系影视作品的盛行大大增强了这种担忧。
对付AI技能失落控的可能性而言,上文总结的AI三个特性具有关键性影响。人类对封闭性或封闭化场景具有根本性乃至完备的掌控力,因此这些场景中的运用不会涌现技能失落控。根据被动性,AI技能运用都是由人类履行的,只要人类对不成熟、不屈安的AI技能不履行运用,这些技能都无法进入运用空间,也就不会引起风险。根据代价中性,只要人类对AI技能的运用符合伦理准则,这些运用就不会对人类造成不可接管的危害。
因此,在AI三个特性成立,并且AI运用遵守伦理准则的情形下,不会涌现技能失落控,也不会对人类造成不可接管的危害。可是,在这三个特性不全成立,或者AI运用不遵守伦理准则的情形下,就可能涌现伦理风险。例如,如果未来涌现了可以在非封闭性场景中自主进化的AI技能,就无法打消各种伦理风险,乃至包括技能失落控的可能性。(拜会赵汀阳)再如,如果在AI技能运用中不遵守干系伦理准则,就会涌现技能误用/滥用;数据安全问题、隐私问题、公正性问题等等,都属于这种情形,而且已经在一定范围内发生,亟需加强管理。这表明,针对技能误用/滥用的管理已经成为当务之急,而完全AI伦理体系的培植也必须提上议事日程。
议题3:AI功能的评价原则——“超越人”与“人接管”?
对AI技能的功能水平的传统评价原则是“超越人”,有时详细表现为“降服人”,如阿法狗。不过在AI界,这个原则理解为AI与人的同类能力水平的比拟,看谁的水平更高,而不是要在现实天下中用AI降服人(虽然常常发生这种误解)。AI研究界和家当界每每认为,当AI的某项能力超过了人,那么就可以在家傍边实现该能力的产品化;如果尚未超过,则表示AI的该项能力还不足强,难以实用化。
不过,在上述传统评价原则之外,实际上还存在着另一种评价原则,这便是“人接管、人喜好”。在一些运用处景中,AI通过人—机器人交互供应做事,而且人—机器人交互以人机情绪互动为根本,例如面向空巢群体的情绪机器人、用于自闭症等人群生理干预的机器人、用于少儿娱乐教诲的机器人等。在这些运用中,用户对机器人的接管度是第一主要的,否则产品的其他功能再好也难以被用户接管。
在接管原则下,干系AI产品的紧张评价指标不是在某个方面比人强,而是人对AI的接管性和接管度是否知足用户的期望。例如,中国科学技能大学研发的情绪交互机器人“佳佳”,其智能水平只是她的“姐姐”——“可佳”机器人(cf.Chen et al,2010,2012)的几分之一,但由于“佳佳”可以识别人(如用户)通过表情和话语呈现出的感情,并通过机器人的表情和话语进行即时反馈,在一定程度上实现了机器人与人的情绪互动,因而具有更高的用户接管度,在人机情绪交互方面的性能远远超过“可佳”。
两种AI功能评价原则决定了人类对AI的两种不雅观察角度和评判标准,以是它们绝不是纯挚的技能问题,同时也决定了AI伦理对AI技能的不雅观察角度和评判依据。因此,AI伦理该当同时从这两个角度展开自己的研究和实践。目前对第一个角度的研究较多,而第二个角度的研究基本处于空缺状态。亟待加强。
议题4:AI管理任务的落实——规范性与自主性?
目前法学界方向于认为,AI尚不具备法律主体地位。(拜会刘洪华,2019年)因此,与AI干系的法律任务的主体是人,比如产品的研发、运维机构。因此,与AI技能干系的主体任务和管理任务的落实,就成为AI伦理的一个主要议题。
我们认为,由于AI现有技能的三个特性,法学界的上述判断是符合现阶段实际情形的,AI确实不应该、也不可能承担主体任务。另一方面,只要伦理规范足够详细化,以至于成为封闭性条件的一部分,那么在这种场景中,就可以利用AI现有技能,自主地实行这些规范,从而完成部分AI管理任务。对付非封闭的运用处景,或者伦理规范不能成为封闭性条件的一部分的情形下,则不能完备依赖AI技能的自主性,必须坚持人的管理和参与。总体上,人作为任务主体,绝不能放弃自己的职责。
根据以上剖析可知,在伦理规范和管理系统编制下,让AI技能自主或半自主地实现其功能,是一种有效的任务落实办法。例如,利用AI技能,可以对的真伪性进行核查和推测,对通过核查的真实向目标用户进行分发推送,对敏感操作流程的合规性进行审核,等等。不过,由于这些运用的场景每每不是完备封闭的,以是仍旧须要人工管理,但AI技能的运用能够大大减轻人工包袱,显著提高事情效率,整体上明显改进管理水平。
家当部门的现行管理系统编制为主体任务的落实供应了一条可行路径,尤其个中的技能标准可以作为AI伦理准则的一种履行细则(见图3)。对付AI干系产品,须要与其他工业品一样,设立四个层级的技能标准:国际标准、国家标准、行业标准和企业标准,个中企业标准和行业/团体/地方标准不得与国家标准相抵触,而国家标准与国际标准之间,可以通过国际标准化互助达成折衷同等。所有这些层级的技能标准都应符合AI伦理规范的哀求。这样,伦理规范就通过技能标准及干系管理机制得到落实,不再是纸上谈兵的空中楼阁。
议题5:AI主体状况变迁的可能性——物、人还是“非人非物”?
上文已解释,目前AI在法律上是物,不是人。但是,由于大量运用需求的推动,以及“接管”评价原则的采纳及干系研究的深入和成果推广,AI技能的发展已形成了一种新的可能性:在不远的将来,某些AI产品或技能载体如情绪交互机器人,会被部分大众接管为“非人非物、亦人亦物”的第三种存在物。
在AI发展早期,曾涌现少数用户将AI误认为人的情形,比如上世纪60年代有人将一个AI对话系统误认为人。不过,这是在人与物的二分法体系之中涌现的稠浊,没有打破二分法的边界。而现在涌现的情形是,人在与某些机器人的交互中,一方面从理智上明确认识到和自己交互的机器人不是人,同时却在情绪中不将机器人视为物,而更方向于视为某种有情绪能力的新型存在物。这种情形实际上比之前的要更繁芜。
涌现这种征象的缘故原由在于:与科学和哲学中的默认假设不同,人们常日并不关心机器人表现出的感情是不是真实的人的感情,更不去仔细区分人的感情和机器人的感情有什么实质差异。(拜会胡珉琦)
这种征象带来三方面的可能性。第一,有助于AI在某些领域的运用推广,知足用户的大量真实需求(尤其是情绪交互方面的需求),从而带来AI研究和运用的新机遇;第二,为调度、拓展和改进人机关系开辟了新的探索空间;第三,带来一种新的伦理寻衅——对自古以来从未受到疑惑的人—物二分法的寻衅。虽然科学上可能不承认这种存在物的真实性,哲学上也不承认它的必要性,但如果越来越多的大众在认知和生理上接管这种存在物,就会形成一种普遍和主要的社会征象,乃至可能对人机关系和人际关系产生广泛的、震荡性的冲击和深远的影响。因此,忽略这些可能性将会造成AI伦理大厦的巨大缺口。AI伦理的双重目标哀求对正、反两方面的可能性展开积极探索。
议题6:AI时期的创新模式——传统创新与公义创新?
在图3所示的AI伦理体系架构中,一个核心部分是公义创新。与传统创新(拜会黄阳华)比较,公义创新的紧张内涵及特点如下。
第一,传统创新紧张追求经济效益的显著增长,而公义创新追求经济效益和社会效益的协同提升。传统创新带来经济效益的显著增长是有目共睹的。与此同时,诸多重大社会问题不断积累和深化,包括景象变革、环境污染、人口老化、收入不均、大规模盛行病等等。乃至有人认为,正是传统创新加剧了这些问题的恶化。作为对传统创新模式的反思和超越,公义创新将以经济效益和社会效益的协同提升为基本目标,以重大社会问题的办理为重点任务,改变经济效益和社会效益相互脱节的征象。在当代社会中,***奇迹与商业创新是相互分离的,科技成果相对易于进入商业创新,不易进入***奇迹,***奇迹与商业创新的这种分立式组合,明显不利于重大社会问题的办理。
第二,传统创新的目标工具是知足用户需求的详细产品/做事,而公义创新的目标工具是符合社会发展须要的人工/人造系统。③满用户需求、且具有显著经济利益的产品/做事这个目标工具贯穿于传统创新的全流程,是该流程统统环节的终极考察指标,因而难以避免各种危害社会效益的副浸染。因此,***创新将不再以产品/做事本身作为目标工具,而是上升到人工/人造系统(拜会司马贺,第30页)层面,并且全面重构人工/人造系统的设计—履行体系,将其改造为实现经济效益和社会效益综合提升的手段。
例如,很多高新技能的运用在提高经济效益的同时,也带来人工岗位的大量减少,④并可能导致新的收入分解,这种情形在传统创新中比较普遍。而在公义创新的设计考虑中,一个人工/人造系统包含的要素有:产品/做事、制造办法、员工利益、用户利益……于是,设计方案的评价指标不仅反响经济效益,同时也反响社会效益。显然,这种人工/人造系统的设计和履行难度远远高于传统的产品设计和制造。为此,不仅须要将AI技能连续运用于产品设计环节(类似于传统创新),更须要将“方案”(拜会李德毅,第216页)、机制设计、目标优化等AI技能运用于全体人工/人造系统的设计,从而使AI技能发挥更大的浸染,帮助人类创造或创造社会经济发展的更多新机遇,如新的就业岗位、新的人机互助办法、新的生产—生活协同办法以及办理重大社会问题的新路子。
第三,传统创新延续、强化工业文明传统,而公义创新探索更具原谅性的文明路径。除上面提到的问题之外,传统创新通过延续、强化工业文明传统,进一步加剧了人的异化、人机对立等长期存在的难题,乃至可能产生“无用阶层”(拜会巩永丹)等文明层面的重大寻衅。尤为主要的是,这些寻衅性问题在工业文明传统下是无解的,因此有必要探索新的化解路径。公义创新的思想来源包括三个方面:历史不雅观——道家哲学(特殊是老子的“道”),文化不雅观——儒家哲学(特殊是孔子的“义”),社会不雅观——希腊哲学,如梭伦的“正义”理论。(拜会廖申白)这些不同文化传统的领悟、发展将构成公义创新的理论根本,并在其上构建公义创新的方法论体系,终极形成可运行的公义创新模式。在这种新模式下,对人的关注将得到根本性加强,对人和机器的认识将大幅度更新,人与机器的关系将得到重新定义,并在福祉原则的辅导下,推动人、机器和环境的更具原谅性的一体化发展。
显然,在现行市场规则下,公义创新面临很多困难,因此公义创新的实施哀求改变市场规则和管理办法。其次,公义创新也哀求设计思维、教诲理念及实践的彻底变革,并带来人的不雅观念的重大变革。事实上,公义创新的履行将为社会经济发展带来大量新机遇。
为了实现其基本义务——匆匆进人类福祉,AI伦理要能够同时解答两方面的问题:该当让AI做什么,不应该让AI做什么,以是AI伦理具有双重目标。根据双重目标,结合AI现有技能的特性,本文认为短期内AI的紧张风险是技能误用/滥用,这应成为近期AI伦理管理的重点课题。同时,本文剖析了AI功能评价的两种原则——超过人和人接管,须要同时从这两个角度展开AI伦理管理。针对以上任务,本文创造,在现行家当管理及技能标准体系的根本上加以扩展,在适当条件下将AI技能引入到管理过程中,可以更加有效地履行AI伦理管理,从而形成落实AI管理任务的一条切实可行的路径。一个较长期的寻衅是AI主体状况的变迁,即某些类型的AI被部分人接管为“非人非物、亦人亦物”的可能性,由此带来从技能到人机关系再到AI法制的一系列新课题。另一个更大的寻衅是面向重大社会问题,以经济效益和社会效益的折衷统一为基本追求的公义创新,它在人类福祉原则的辅导下,广泛深入地利用AI技能,将传统的产品设计和制造升级为人工/人造系统的设计和履行,这也是双重目标下AI伦理体系培植的最大特色和终极标志。
本文根据作者在“第二届环球视野下的人工智能伦理论坛”(杭州,2020年7月25日)上的演讲整理而成。作者在与赵汀阳、王蓉蓉关于AI伦理问题的谈论中受益良多。本文部分素材来自《人工智能伦理导引》(陈小平主编,中国科学技能大学出版社2020年),刘贵全、顾心怡、叶斌、汪琛、王娟、侯东德、苏成慧参与了该书编著。谨向以上诸位表示感谢。
注释:
①关于封闭性详细内涵的详细描述,普通性先容拜会陈小平,2020年a;专业性先容拜会陈小平,2020年b。
②原文引入了“伦理创新”的术语,后经王蓉蓉建议,改为“公义创新”,但内涵保持不变。
③“人工”的例子如“人工降雨”,其结果(降下来的雨)是“真的”(自然的),而导致这个结果的过程是人为的(非自然的);“人造”的例子如“人造卫星”,其结果(卫星)及其过程都不是“真的”。AI中的Artificial包含人工和人造两种类型,公义创新的目标工具也包括人工系统和人造系统。
④对此须要详细情形详细剖析,比如目前在海内工业界,机器人替代的劳动岗位紧张是事情环境恶劣、不适宜人从事的工种,如喷漆、打磨等。值得重点关注的是经济效益与社会效益不一致的情形。
原文参考文献:
[1]陈小平,2019年:《人工智能伦理体系:根本架构与关键问题》,载《智能系统学报》第4期。
2020年a:《封闭性场景:人工智能的家当化路径》,载《文化纵横》第1期。
2020年b:《人工智能中的封闭性和强封闭性——现有成果的能力边界、运用条件和伦理风险》,载《智能系统学报》第1期。
[2]《辞海》(缩印本),1979年,上海辞书出版社。
[3]巩永丹,2019年:《人工智能催生“无用阶级”吗?——赫拉利“无用阶级”断想引发的哲学审度》,载《国外理论动态》第6期。
[4]胡珉琦,2020年:《AI与情绪》,载《中国科学报》7月23日。
[5]黄阳华,2016年:《熊彼特的“创新”理论》,载《光明日报》9月20日。
[6]李德毅主编,2018年:《人工智能导论》,中国科学技能出版社。
[7]廖申白,2002年:《西方正义观点:嬗变中的综合》,载《哲学研究》第1期。
[8]刘洪华,2019年:《论人工智能的法律地位》,载《政治与法律》第1期。
[9]司马贺(Herbert Simon),1987年:《人工科学》,商务印书馆。
[10]赵汀阳,2018年:《人工智能会是一个要命的问题吗?》,载《开放时期》第6期。
[11]Chen et al,2010,\"大众Developing High-level Cognitive Functions for Service Robots\"大众,in Proc.of 9th Int.Conf.on Autonomous Agents and Multi-agent Systems(AAMAS 2010),Toronto,Canada.
2012,Xiaoping Chen,Jiongkun Xie,Jianmin Ji,and Zhiqiang Sui,\"大众Toward Open Knowledge Enabling for Human-Robot Interaction\公众,in Journal of Human-Robot Interaction 1(2).
来源: 《哲学研究》
本文系作者个人观点,不代表本站立场,转载请注明出处!