当塔林遇上尤德考斯基

若何让机械人对人类友好?_塔林_人工智能 AI简讯

2007年,贾安·塔林在网上看到了一篇名为《盯着奇点》的在线文章,该文章预言,随着超级智能的涌现,人类将不复存在,超级智能在广泛领域超越了人类的智力。

塔林出生于爱沙尼亚,是一名打算机程序员,有物理学背景。
2003年,他与伙伴共创了skype,为该运用程序做后台开拓。
两年后,易趣收购了他的skype股票。

塔林很快创造,《盯着奇点》作者埃利泽·尤德考斯基(EliezerYudkowsky)是一位自学成才的理论家,他写了1000多篇文章和博客,个中许多都是关于超级智能的。

塔林于是把尤德考斯基的作品从互联网上搜集***,按韶光顺序排列。
然后,他花了一年的大部分韶光来阅读它们。

读了尤德考斯基的文章,塔林相信,超级智能可能会导致人工智能的大爆发,从而威胁人类的生存———超级人工智能将取代人们在进化阶梯上的地位,并以人类现在掌握类人猿的办法支配人类。
或者更糟———消灭人类。

读完末了一篇文章之后,塔林向尤德考斯基发送了一封电子邮件:“我是贾安,Skype的创始工程师之一……我赞许,为人工智能超越人类聪慧提前做准备,是人类确当务之急。
”他想帮忙。

一周后,塔林飞往美国加利福尼亚州旧金山湾参加会议,在加州密尔布瑞市的一家咖啡馆里,他碰着了住在附近的尤德考斯基。
他们的聚会持续了四个小时。
尤德考斯基事后如此评价塔林:“实际上,他真的理解了人工智能的基本观点和细节……这是非常罕见的。

捐帮助力人工智能研究

后来,塔林给奇点人工智能研究所开了一张5000美元的支票,奇点人工智能研究所是一个非营利组织,尤德考斯基是该研究所的研究员。
2013年,该组织更名为机器智能研究所(简称Miri)。
在那往后,塔林共捐给该研究所60多万美元。

与尤德考斯基的会面,使塔林有了明确的目标,也匆匆使他去完成一项义务:把人类从自己的创造物中拯救出来。

他开始了旅行生活,在世界各地揭橥了关于超级智能构成威胁的演讲。
不过,他在更多的时候,是开始帮助一些研究,这些研究旨在给人类探求一条出路:即“友好的人工智能”。

这并不虞味着创造一款善于评论辩论景象的机器人,也不虞味着机器人能记住你孩子的名字,只管超级聪明的人工智能大概能做到这两件事。
但也不虞味着机器人的动机是利他主义或者有大爱的。

一个常见的谬误是假设人工智能有人类的希望和代价不雅观。
而“友好”意味着更基本的东西:将来的机器人不会在他们追求实现目标的过程中消灭我们。

多关注人工智能的未来

去年春天,塔林抵达英国剑桥参加人工智能会议,希望学术界更加重视人工智能的安全。

这一天,和塔林一起在剑桥大学耶稣学院的餐厅用饭。
塔林坐在一张厚重的桃花心木桌旁,穿着硅谷风格的休闲服装:玄色牛仔裤、T恤和帆布运动鞋。

在耶稣学院餐厅,塔林的用餐伙伴是一群会议人士,个中包括一位学习机器人的妇女和一位20世纪60年代毕业于剑桥的英国男士。
男士试图把发言转向人工智能的***,塔林茫然地看着他说:“我对短期风险不感兴趣。

在某种程度上,47岁的塔林像教科书上的一位科技企业家。
他认为,由于科学进步(如果人工智能不毁灭我们),他将活到“很多很多年”,他的寿命乃至可能会超过年轻的研究生。

但塔林对超级智能的担忧在他的团队中已尽人皆知。
而且,担忧者不仅仅是他———贝宝(Paypal)联合创始人彼得·蒂尔(PeterThiel)的基金会已向机器智能研究所(Miri)捐赠160万美元,2015年,特斯拉创始人埃隆·马斯克也向马萨诸塞州剑桥技能安全机构的未来生命研究所捐资1000万美元。

不可忽略人工智能的另一壁

塔林进入人工智能研究天下,始于20世纪80年代。
当时他有一位同学,其父亲在政府事情,这位父亲让几个聪明的孩子打仗到了大型电脑。

爱沙尼亚独立后,塔林创立了一家电子游戏公司。
时至今日,塔林和妻子、六个孩子中最小的一个仍旧住在都城塔林。

2012年,他与志同道合者共同创立了剑桥生存风险研究中央(CSER),最初的支出靠近20万美元。

目前,塔林致力于捐资研究人工智能,该研究项目正井井有条地进行着。
他把捐款分别拨给11个研究机构,每个研究机构都在研究不同的安全对策,以应对人工智能。
他希望能坚持做下去。

塔林将人工智能对人类的威胁称之为生存风险或X风险。
研究生存风险的,有剑桥生存风险研究中央(CSER)的研究职员,除了研讨人工智能引发的生存风险,CSER的20多名研究职员还研究了景象变革、核战役和生物武器。

塔林认为,景象变革、核战役和生物武器等风险比较随意马虎被人们认识,而人工智能带来的风险却未能引发人们足够的重视。
他希望人们多多理解超级智能机器接管天下的胆怯,希望说服人们更多地关注人工智能的威胁。

规避人工智能的风险

塔林指出,每一个人工智能都是由目标驱动的,前辈的人工智能不一定须要被授予掌握天下的目标,才去掌握天下———有可能是有时成分引发的,打算机编程的历史上充斥着各类随意马虎引发灾害的小缺点。
例如,2010年,当共同基金公司Waddell&Reed的一名交易员抛售数千份期货合约时,该公司的软件在实行交易算法时遗漏了一个关键变量。
结果导致一万亿美元的

“闪电崩盘”。

塔林基金的研究职员认为,如果超级人工智能的勉励机制未得到恰当的编程,纵然是善意的目标也可能导致恶意的结局。
正如牛津大学的瑞典哲学家尼克·博斯特罗姆(NickBostrom)在他的著作《超智能》所举的著名例子一样。

在《超智能》中,博斯特罗姆教授举例说,如果我们为人工智能设定一种程序,让它制造回形针。
一旦它们的智能达到了与人类相称的水平,它们就会把所有把稳力都放在制造回形针上,终极可能会把所有已知物质都用来制造回形针,包括人。

博斯特罗姆教授表示,上述情形对我们来说完备猖獗的行为,在人工智能眼中是极其合理的,由于它们的唯一目标便是制造回形针。

千方百计探求安全对策

塔林基金正在寻求各种各样的办法避免危险涌现。
他希望能够效仿20世纪40年代反核武器运动。
当年,原子弹在广岛和长崎爆炸之后,科学家们联合起来呼吁限定进一步的核试验。

牛津大学研究员斯图尔特·阿姆斯特朗是天下上少数专注于人工智能安全的研究职员之一。
当在牛津大学见到他时,他正在喝咖啡,穿着一件解开纽扣的橄榄球衫。
他的生平险些都在屏幕前度过,苍白的脸被一堆乱糟糟的头发包围着。
问他,在人工智能安全方面取获胜利是什么样子?他说:“你看过乐高电影吗?统统都很棒。

阿姆斯特朗说:“人们推举了很多可能办理全体AI掌握问题的技巧,但是这些方法要么太过大略,好比试图给繁芜的人类喜恶确定一个大略肤浅的定义,要么过于生硬,把繁芜的人类代价不雅观压缩成一个大略的字词或想法。

“我并不是说这些大略的技巧没有用。
的确有很多技巧给我们的研究指明了道路,对办理这个终极难题有帮助。
但是这些只是想法,详细的操作还须要我们做更多的开拓研究事情。
”阿姆斯特朗说。

本版供稿:滢

图片来源:Guardian、verdict等。