当人工智能遭遇“电车实验”谁来决定它的道德不雅观?_格林_道德
根据这个对道德直觉的大略实验,格林等研究职员创造了无数个变体。通过略微改变环境,电车问题可以作为对人类思维和人类群体的实证研究(但不是所有人都认同这一点)。
以人行天桥变体为例:你和另一个非常高大的人站在一座人行天桥上,桥下是电车轨道,如果你把他或她推下去,就可以阻挡电车撞去世那五个人。虽然两个例子里被救者的数量是一样的,但结果证明,第一个例子里选择拨动开关的人,要远远多于第二个例子里选择把人推下去的数量。
然而,在不同的人群里,这样的差异也并不总是同等的。按照格林开玩笑的说法,只有两类人可能附和把那个人推下去:生理变态者和经济学家。
后来在他的讲话中,格林引用本科生研究员辛祥(Xin Xiang,音译)的研究,又谈到了这个问题。辛祥撰写了一篇得奖论文,题为《和尚会把那个人推下人行天桥吗?汉族人、藏族人和美国人的道德判断和惩罚方向》。
在拉萨附近,辛祥对佛教僧侣开展人行天桥实验,并把他们的回答与汉族人和美国人进行了比较。“和尚附和把那个人推下天桥的可能性要高得多。”格林说。
他指出,对和尚的调查结果类似于对(临床上确定的)生理变态者和大脑腹内侧前额叶受损者的调查结果。
“但我认为,和尚有很大不同。”格林说,“当他们作出那种回答时,他们说,‘当然,害人性命是恐怖的事情,但如果你的目的是纯粹的,是为了救更多的人,而不是为了自己或家人,那便是合理的。’”
对付大部分而言,他们乐意拨动开关,但是却不愿意把人推下去。在格林看来,这是人类在生物进化过程中形成的一种道德系统“漏洞”。
“对付人行天桥的例子,你可能会说,把那个人推下天桥显然是错的。用人的身体来阻挡电车,这违反了人权。但对付开关的例子,你可能附和拨动开关。”他说,“然后,我会见告你,你回答的很大一部分在于是用手推还是按开关。你以为那在道德上主要吗?”他接着又说道:“如果你的一位朋友在天桥上,打电话给你说,‘有火车开过来了。我能够救五个人,但会害去世一个人!
我该怎么办?’你是不是会问:‘这要看情形,你是用手推还是按开关?’”
格林认为,人们该当寻求的是道德同等性,不能由于决定他人去世活的细节摇摆来摇摆去。
格林把他关于道德直觉的研究和当前的人工智能软件联系起来。AI软件哪怕现在没有或者往后也不会碰着这类二选一式的死活攸关问题,但是也必须具有某种道德框架。它们纵然没有制订关于何时采纳某种行为的详细规则,也必须用某种道德不雅观加以演习。
格林说,由于自动驾驶汽车技能即将实用化,谈论电车难题的人变得越来越多。自动驾驶汽车彷佛确实将面临电车难题的某些变体。格林说,个中最有可能的是,这些汽车应不应该为了救更多的***而捐躯搭客。
对付这个例子,人们的意见前后并不一致。泛泛而谈时,他们会说,汽车该当是功利的,该当救更多的人。但详细涉及到他们自己的车时,他们的意见就变了。
所有这些问题构成(仍旧不完全)了一幅人类道德直觉的画像。由于演习机器人的必要性,人类的道德直觉才被迫呈现出明确详细的形态。这觉得太奇怪了。
在打造AI系统之前,格林希望我们问自己一个主要的问题:我们是否知道,人类道德直觉的哪些部分是好的,哪些部分是不好的?
翻译:于波
来源:The Atlantic
造就:剧院式的线下演讲平台,创造最有创造力的思想
本文系作者个人观点,不代表本站立场,转载请注明出处!