以备受瞩目的无人驾驶汽车为例,如果其处于一种必须做出选择的经典道德情境中,即面临一种须要“杀一救五(多)”的情境,比如前面有五位或者多位行人穿行马路,须要做出决策:要么自动驾驶汽车转向让车和毁掉司机以保护行人安全,要么保全自动驾驶汽车以保全司机。
经典研究创造,如果确实为了保护行人车毁人亡的话,人们只会将很少的道德任务归咎于这辆无人驾驶汽车。
大多数人认为就该当这样做,但讽刺的是,大多数人也表示如果这样就不会去购买这辆汽车。
这便存在一个悖论,即希望人工智能做出功利主义决策,但在实际生活中又不肯望它发生在自己身上。

基于人工智能的道德判断规则_道德_相对主义 智能助手

  实在,人类并不肯望人工智能赞助决策,当然也包括道德决策。
各种研究表明,人类会对人工智能做出的决策产生厌恶。
人们不喜好人工智能在自动驾驶、法律、医疗和军事方面做出与死活干系的道德决策,哪怕这些决策终极被认为是精确的,结果是好的、积极的。
事实上,人类对人工智能在某种意义上存在道德规范上的歧视。
究其缘故原由,这可能是人类在对待人工智能时利用了人类的道德规则。
那么,如何肃清这种歧视,是否可以形成一套稳固的、不同于人类的人工智能道德规范呢?

  我们的研究早已创造,中国人偏好做出道德相对主义判断。
这是由于中国人具有一种朴素的辩证思想,即认为正反两面都对的道德原则。
这种思维办法容忍抵牾互斥的不雅观点同时存在,能够肃清人们处于道德两难困境中的焦虑和不安。
辩证思维与道德相对主义二者都有一个关键的特性,即对抵牾的原谅。
道德判断过程中认为正反两面皆对,且会随着关系、环境的变革而变革的辩证思维办法,正是道德相对主义的表现。

  对付人工智能而言,能否形成一种不同于人类的道德规则?虽然人工智能的道德规则可能与人类现有的道德规则相抵触,但人类依然可用道德相对主义的眼力去看待它,以办理人工智能的伦理决策问题。
这是一种办理问题之道,但却相称困难。
生理学研究表明,在人类认知中,人们方向于将人工智能当作孩子(乃至是不敷4岁的孩子)来看待。
而儿童正处于道德刻板之时,这也可以部分阐明为什么人类不肯望人工智能来做出道德判断,由于人类也不太希望由孩子来赞助他做出道德决策。

  一方面,儿童没有能力做出道德相对主义判断。
目前的实证研究证据表明,道德相对主义方向会随着年事的增大而变强。
相对付儿童,成人更加方向于道德相对主义。
学生从七年级到大学阶段,道德相对主义程度会逐渐提高。
这可能是由于学生在这个阶段要离开家人,他们要学习新的知识,独立地生活,思维也变得更加灵巧。
有研究稽核了5岁、7岁和9岁的儿童在道德、品味、事实以及模棱两可的事实四个领域中,对不同命题所表现出来的相对主义程度。
在每个领域的任务中,均向儿童呈现A和B两个人对某一命题的判断结果,且这两种不雅观点是相互抵牾的。
然后,研究者让儿童进行判断(如:你以为A和B的说法只有一个人是精确的,还是A和B的说法都是精确的?)。
结果显示,在道德与事实领域,儿童更方向于做出客不雅观主义判断;在模棱两可的事实领域,他们的相对主义程度较高;而在品味领域,选择相对主义答案的人最多,且儿童年事越大越方向于做出相对主义判断。
还有研究让4岁至6岁的孩子对道德问题、美学问题和知识进行对错判断,这个年事段的儿童对付道德问题的判断与后两种问题不同,他们对道德问题会更加方向于做出客不雅观主义判断。
还有研究者让大学生判断来自不同文化的两个人针对“打人”这一事宜的不同意见,个中一个人认为打人是对的,而另一个人认为打人是错的。
研究者供应给被试三个选项,分别表述了认同前者是对的、认同后者是对的以及两者可能都对。
结果创造,大学生更方向于认为两者可能都对,也便是更多地做出道德相对主义判断。
这些研究都表明,儿童更加方向于道德客不雅观主义,而成人则更加方向于道德相对主义,解释道德相对主义方向会随着年事的增长而增强。

  另一方面,人类并不肯望儿童做出道德相对主义判断。
皮亚杰关注道德发展,认为9岁至11岁的儿童处于道德发展的他律阶段,在这一阶段,儿童表现出某种形式的道德绝对主义,而到了自律阶段后,儿童才有做出道德相对主义判断的可能。
柯尔伯格完善了他律和自律的区分标准,认为只用这两级水平来阐明儿童的道德发展是不全面的,于是他便提出了新的道德发展阶段论,即前习俗水平(儿童会先依据一定的规范来做道德判断,进而发展到依据事情是否有利来进行道德判断)、习俗水平(包含人际折衷以及掩护威信或秩序两个阶段,开始重视社会规范的浸染)、后习俗水平(从社会规范发展到更多参考经由内化而形成的道德信念来做出道德判断)。
柯尔伯格的道德发展理论已经隐含道德相对主义的观点。
在习俗阶段,人们接管的是一样平常性的、详细的道德原则,受到外界的道德规范的约束。
而发展到末了一个阶段,当道德规则具有自主性时,这样的道德规则得当与否完备是由人们自己进行判断的。
如果对这一阶段进行界定,理应对应道德相对主义,只是柯尔伯格并未明确提出这一观点与研究问题。
柯尔伯格的理论在某种程度上是实然的,但实在也是应然的,即某种程度上它提示人们,到了某个阶段时就该当有某种道德发展的可能。
按照这样的逻辑,人类实际上并不肯望儿童会做出道德判断。

  将针对儿童的研究结果放在人工智能的谈论中,可以推断人工智能(现阶段)没有能力做出道德相对主义判断,且人类也不肯望人工智能做出道德相对主义判断。
换句话说,人类在生理上不肯望人工智能根据不同于人类天下的道德规则来进行道德决策,人类自身同时也不肯望人工智能秉持一种完备不同于人类的独特道德规则做出行为。

  (本文系教诲部人文社科基金青年项目“文化混搭与道德相对主义”(17XJC190001)、教诲部人文社科基金青年项目“理性行动的认知规范研究”(19YJC720006)阶段性成果)

  (作者单位:湖北经济学院马克思主义学院;西安交通大学哲学系)

来源:中国社会科学网-中国社会科学报 作者:韩婷婷 丁晓军

欢迎关注中国社会科学网微信公众年夜众号 cssn_cn,获取更多学术资讯。