事件中人工智能该先救乘客照样行人?约4000万人介入这项查询访问_介入者_道德
英国《自然》杂志日前就揭橥了一项有关方面的人工智能研究:美国麻省理工学院(MIT)以“在无法避免的事件中,无人驾驶汽车应如何作出决定拯救哪一方”为调查内容做了项环球道德偏好调查。
该研究团队搭建了一个名为“道德机器”的大型在线调查平台,参与者可置身于一个不可避免的事件场景,事件中行人与搭客身惩罚歧的危险中,参与者可选择驾驶路线决定究竟救谁,该平台统共记录了约4000万个参与者决定,该结果将用于为制订社会普遍接管的人工智能(AI)道德标准供应主要借鉴。
个中,研究职员将道德偏好给予分类,譬如救多数不救少数、救小孩不救老人、救人不救动物等,同时还创造了不同文化间的道德偏好差异:来自中美洲和南美洲国家、法国以及前法属外洋领地和现法属领地的参与者,更倾向于先救女性和强壮个体;而来自收入差距较大国家的参与者在决定救谁时,一样平常会考虑其社会地位。
本文系作者个人观点,不代表本站立场,转载请注明出处!