人工智能应该若何监管?华盛顿大年夜学教授 Oren Etzioni 给出了他的“人工智能三定律”_人工智能_机械人
近日,AI 研究机构艾伦人工智能研究院(Allen Institute for Artificial Intelligence)院长、华盛顿大学教授Oren Etzioni 也在纽约时报揭橥了一篇文章,讲述了他对人工智能监管的意见。Oren Etzioni 在 Tom M. Mitchell 辅导下于1991年拿到CMU的博士学位,而后在来到华盛顿大学,担当打算机工程学院教授;2005年时他牵头成立了华盛顿大学图灵中央并任主任,中央的研究领域包括数据挖掘、NLP、网络搜索。Oren Etzioni 在文中提出了贰心中的“人工智能三定律”,雷锋网 AI 科技评论将文章编译如下。
被许多人看作“现实版钢铁侠”的美国顶尖科技公司创始人埃隆马斯克,最近敦促国家有关领导人提早采纳方法监管人工智能技能。马斯克坚持认为,人工智能是对人类生存的“潜在威胁”,犹如科幻作品中的人工智能,是一个令人担忧的不雅观点。不过,纵然是像我这样的研究职员也认识到,人工智能会对武器设计,事情机会和隐私安全产生极大的影响。人们对付是否该当开拓人工智能技能很自然地会产生疑问。
我相信答案是肯定的。但是,为了谨慎,难道我们不应该一步一步地至少减缓人工智能A.I.的开拓进度吗?问题是如果我们这样做,那么例如中国这样的国家就会超过我们。 A.I.之马已经脱缰,我们最好的打算是试图勾引它。 A.I.不应该被武器化,而且任何A.I.必须有一个坚守的“禁地”。除此之外,我们该当规范A.I.系统对实际运用处景方面的影响,(例如,自动驾驶车辆的安全性),而不是在还未定形且快速发展的A.I.领域试图定义和掌握某些观点。
我提出了三个有关人工智能系统的规则,这些想法是受到科幻作家艾萨夫·阿西莫夫1942年提出的“机器人学三律”启示的。我在此根本上做了进一步发展。阿西莫夫的三定律是:第一、机器人不得侵害人类,或看到人类受到侵害而袖手旁观;第二、在不违反第一定律的条件下,机器人必须绝对服从人类给与的任何命令;第三、在不违反第一定律和第二定律的条件下,机器人必须尽力保护自己。
这三大定律看上去虽优雅简练但却模糊不清:当涉及到A.I.时,究竟什么才是侵害?基于我提出的三条规则,我找到了更为详细的方法来避免A.I.造成侵害。
首先,A.I. 系统必须遵守其操作职员的所有规则。这套规则将涵盖私人,公司和政府机构。 我们不想要A.I. 从事网络欺凌,股票操纵或胆怯主义威胁; 我们不想要F.B.I. 利用A.I.系统钓鱼司法。 我们不想要自动驾驶车辆闯红灯,或者更糟的是制造违反国际条约的A.I. 武器。
我们的一样平常法规该当修正,人们不能借口称是A.I.系统做了一些我们无法理解或预期的事情。大略地说,“不管我事,是A.I干的”;这不应该成为违法行为的借口。
我的第二条规则是A.I.系统必须清楚地表明它不是人类。正如我们在一则机器人案例中所见 - 打算机程序可以与真人进行日益繁芜的对话 - 人类社会须要确保A.I.系统被清楚地标示出来。在2016年,一个被称为吉尔·沃森(Jill Watson)的机器人在佐治亚理工大学(Georgia Tech)担当在线课程的传授教化助理,愚弄学生,并让大家以为它是人类。根据牛津大学的研究职员称,更为严重的例子是在2016年选举之前的日子里,在社交媒体上广泛利用的支持特朗普的政治机器人。
我的规则将确保人们知道机器人何时伪装某人。例如,我们知道@DeepDrumpf - 一个在Twitter上诙谐地模拟唐纳德·特朗普的机器人。A.I.系统不仅发出假的推文;它们也发布假******。华盛顿大学的研究职员最近发布了前总统巴拉克·奥巴马的假***,非常令人信服地彷佛在说一些被嫁接到他***中的话,真实情形是与他说的完备不同。
我的第三条规则是若未经该信息来源方的明确容许,A.I.系统不能保留或表露机密信息。由于其能自动引用,记录和剖析信息的分外能力,A.I.系统处于获取机密信息的紧张位置。例如开始被越来越多的家庭接管的“智能音箱”亚马逊Echo,就可能会记录下家庭中所有的发言内容,包括那些私密的,或您的孩子可能无意透露给A.I.的信息。纵然看似无害的室内清洁机器人也会绘制你家的舆图。这些便是你要确保管控的信息。
我相信这些规则听起来还不足完全。我在这里先容它们,只为抛砖引玉。无论你是否赞许Musk师长西席关于A.I.的进步速率及其对人类的终极影响的不雅观点,很明显的一点是A.I. 已经来临。社会大众须要做好准备。
Vianytimes,雷锋网 AI 科技评论编译
雷锋网版权文章,未经授权禁止转载。详情见转载须知。
本文系作者个人观点,不代表本站立场,转载请注明出处!