人工智能的迅速发展正在深刻地改变天下、改变人类的社会生活。
近日,南京大学哲学系与南京大学科学技能与社会研究所主理了“人工智能哲学事情坊”活动,跨学科磋商人工智能伦理问题。
南京大学哲学系潘天群教授认为,如果奇点存在,那么人类现在及未来所进行的人工智能研究与开拓,便是一场将人类导向自我灭亡的屈曲的智力活动。
而这正是我们须要避免的,也是哲学所要思考的。

哲学思虑资助人类避免人工智能奇点!| 社会科学报_人工智能_机械 科技快讯

原文 :《哲学思考:避免人工智能奇点》

作者 |南京大学哲学系教授 潘天群

图片 |网络

人工智能现在是一个很热的观点。
人工智能指的是,研究若何制造打算机或者人造物,并为其体例程序使其能够做人类心灵所能够做的事情。
这个观点起源于1956年麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器仿照人的智能”。
经由六十多年的发展,本日人工智能成为引领人类社会发展的一个主要技能,只管期间有起有落。
现在,我们正在经历着一场人工智能引发的工业革命。
人工智能家当规模持续并快速增长。
据德勤研究数据,2017年环球人工智能市场规模首次打破2000亿元,2018年近3000亿元;2019年,环球人工智能市场规模有望打破4000亿元。
人工智能作为一门通用技能,以前所未有的深度与广度改变着人类社会。

哲学思考着人类“能够做”的行为边界

人工智能的发展与哲学密切关联。
哲学思考着人类“能够做”的行为边界,图灵1950年的那篇著名论文《打算机器与智能》揭橥于《心灵》杂志,他避开了常用的观点剖析方法给思维下定义,而给出了行为主义的定义。
这便是著名的图灵测试。

实在,在他之前许多哲学家进行一系列干系的理智历险。
早在17世纪霍布斯已经预测了强AI,他有一句宣言:推理便是打算;而大约在同一时期,莱布尼茨梦想着“通用演算”的观点,他认为我们可以用机器演算来办理人们之间的辩论。
而更早的笛卡尔已经有了类似于Turing测试的想法,并且他给出自己悲观的不雅观点:

如果有一些机器跟我们的身体千篇一律,并且尽可能不走样地模拟着我们的动作,我们还是有两条非常可靠的标准,可以用来判明它们并不因此便是真正的人。

第一条是:它们决不能像我们这样利用措辞,或者利用其他由措辞构成的讯号,向别人表达自己的思想。
由于我们完备可以设想一台机器,布局得能够吐出几个字来,乃至能够吐出某些字来回答我们,扳动它的某些部件的身体动作,例如在某处一按它就说出我们要它说的哀求,在另一处一按它就喊痛之类,可是它决不能把这些字排成别的样式适当地回答人家向它说的意思,而这是最屈曲的人都能办到的。

第二条是:那些机器虽然可以做许多事情,做得跟我们每个人一样好,乃至更好,却决不能做别的事情。
从这一点可以看出,它们的活动所依赖的并不是认识,而只是它们的部件构造;由于理性是万能的工具,可以用于统统场合,那些部件则不然,一种分外构造只能做一种分外动作。
由此可见,一台机器实际上决不可能有那么多的部件使它在生活上的各种场合全都搪塞宽裕,跟我们依赖理性行事一样。
(Descartes 1911,p.116)

笛卡尔的情由有两点,第一,机器没有我们的措辞,因而不能成为真正的人,第二,机器能够在某一方面做得很好,即专用智能,而人的理性决定了人的智能是通用的。
只管如此,笛卡尔的心-身二元论深刻地影响人工智能的发展。

超级人工智能:远超人类

哲学家塞尔在有关“中文屋论证”的著作中给出了强人工智能观点。
塞尔对基于物理-符号的根本上实现强人工智能的不雅观点持反对态度。

然而,存在极度的强人工智能不雅观点,查尼牙克(Charniak)和麦克德莫特(McDermot)在他们对人工智能的经典先容中说道:“人工智能的终极目标,我们还远远未能实现,是建造人,或者,退一步,建造动物。
”(Charniak & McDermott 1985, p. 7)须要把稳的是,查尼牙克和麦克德莫特并没有说终极建造物只是看起来像是人,他们所说的人工智能便是所谓的强人工智能。

而其余一个学者霍格兰(Haugeland)说:“(人工智能研究)最根本的目的完备不是模拟智力活动或是制造出一些聪明的赝品。
人工智能要的是真正的有心灵的机器。
这不是什么科幻小说,而是真正的科学,它基于一个既深刻又大胆的理论观点:从根本上说,我们自己便是打算机(Haugeland 1985b, p. 2)。

智能是地球上稀缺性的资源,但随着人工智能的发展,天然具有的智能的人便是无足轻重的,人乃至可能变成地球上的废物。

1958年,被誉为“打算机之父”“博弈论之父”的约翰·冯·伊诺曼在和数学家乌拉姆评论辩论技能变革时利用了“奇点”一词。

英国数学家古德是第二次天下大战期间图灵密码破译小组的首席统计师兼数学家,他在1965年在一篇题为《对第一台超级智能机器的一些推测》的论文中的话:“一台超级智能机器可以定义为是一台在所有智能活动上都远超人类——不管人有多聪明——的机器。
由于机器设计属于这些智能活动的一种,那么一台超级智能机器当然能够设计更出色的机器,那么毫无疑问会涌现一场‘智能爆炸’,把人的智力远远抛在后面。
因此,第一台超级智能机器也就成为人类做出的末了的发明了——条件是这台机器足够听话且乐意见告我们若何掌握它。

思考人工智能运用的应然边界

如果奇点是存在的,那么人类现在及未来所进行的人工智能研究与开拓,便是一场将人类导向自我灭亡的屈曲的智力活动,而不是将人类从劳动中全面解放出来使人类走向更高文明形态的活动。
而这正是我们须要避免的,如果可能的话。
这也是哲学所要思考的。

哲学不仅思考人们行为能够做的可能边界,而且思考人们“应该”做的应然边界。
这个应然边界的思考在当前更为急迫。
在当前的技能中,人工智能是研究开拓能够仿照、延伸和扩展人类智能的理论、方法、技能及运用系统的一门新的技能科学,研究目的是匆匆使智能机器会听(语音识别、机器翻译等)、会看(图像识别、笔墨识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。
这些领域急迫须要我们思考人工智能运用的应然边界。

人工智能是否能够用于军事,比如我们是否许可开拓出机器人士兵?这是政府应该考虑的;

无人驾驶的算法应该植入若何的伦理,在电车难题中它应该撞向5个人还是1个人,当然这难堪程序员了,由于哲学家也没有一个统一的见地。

对付企业,如何开拓出向善的或者避免恶的人工智能产品?

目前,大数据伦理更为急迫,如熟知的事情是Facebook丑闻,克里斯托弗·威利(Christopher Wylie)创立了剑桥剖析(Cambridge Analytica),他打入了Facebook获取了美国数百万人的个人资料,利用他们的私人信息和人际信息创建生理和政治档案,然后针对他们特定的生理构成设计并投放政治广告。
这是一个新型的政治掌握或极权模式,为此齐泽克说:“我们是被幸福地被操控”。

事实上,我们大众是被操纵的羔羊,或隐形的或和明显的,这是社会现实,而技能包括人工智能技能如何避免成为企业为了利润,或政治集团为了政治目的,而操纵大众的帮凶?这正是哲学须要思考的。

哲学家的聪慧超越时期。
哲学的谈论不是玄想,也不是杞人忧天。
可能性不一定是现实的,但可能性有可能变成现实。
哲学家是上帝的青鸟使:哲学家的思考能够使得某些善的可能性成为现实,而使得某些恶的可能性消遁。
真正的灾害是不被意识到的,而当灾害被意识到的时候,人类便想办法战胜它,而哲学家便是意识到那些灾害从而提醒大众的先知。

文章原载于社会科学报第1663期第6版,未经许可禁止转载,文中内容仅代表作者不雅观点,不代表本报态度。

拓展阅读

超越技能:第四次工业革命,人类能“降服”技能吗? | 社会科学报

关注 | 互联网不是法外之地,青少年保护仍需努力!

网络多元民意表达:正视“呈现”的代价 | 社会科学报

长按二维码关注

社会科学报

做优质的思想产品

http://www.shekebao.com.cn/