人工智能是否会带来息灭?对“人工智能灭世论”的质疑与反思_人工智能_人类
人工智能灭世论
对付人们而言,人工智能将会在智力层面上超越人类已经不是秘密。人们为人工智能办理某些繁芜能力而啧啧称奇,但是人类仍旧对人工智能在认知领域的进展既好奇又当心。这样的态度背后,是人类对付智力与良知之间不一致关系的认识,一个在智力上超越人类的存在未必是善良的。正如Nick Bostrom 在他的著作《超级智能》中所说的,如果超级智能是仁慈的,那很好,但是没有情由让人们认定人工智能必定是善良的。我们完备可以想象,当人工智能认为有必要销毁人类赖以生存的资源时,人工智能会“绝不留情”地实行这一想法。Nick Bostrom表示,人工智能有能力决定日后的地球上的生命起源,当他们认为非人类式的生命将对地球最为有益时,可以预见人工智能将推动人类的灭绝。
对此,有些学者质疑到是否可以设计某些“仁慈性测试”来考验人工智能的危害性。在人工智能通过测试之前,人们可以将人工智能放置在一个可控的、安全的环境(“盒子”)中,并反复测试其安全性。“盒子”本身须要尽可能的还原现实环境,以保障人工智能的仁慈性与安全性得到的测试足够真实。在人工智能通过测试后,并且对人类生命没有任何风险时,我们可以将其从“盒子”中开释出来。
但是,测试发起收到了许多批评和质疑,Bostrom表示,我们可以疑惑人工智能是否会为了逃离“盒子”而说谎通过测试。正犹如人类可以为了达成自己的目的而利用例如说谎等不只彩的手段一样,人工智能也有能力通过假装对人类友善来履行其灭绝人类的操持。乃至,在通过测试后的很长一段韶光内,人工智能都可以与人类和谐共处,以赢得人类的相信。另一种可能是,基于人工智能的高速发展与变革,犹如《异形:左券》中的仿生人大卫一样平常,它们可能基于现实变革而推翻之前对付人类的认知,将人类视作威胁。因此,通过仁慈性测试并不能担保人工智能未来的安全性。基于这些情由,我们有情由对人工智能灭世论报以足够的重视。
人工智能的威胁与休谟问题
Bostrom对付人工智能可能欺骗人类通过仁慈性测试的可能性彷佛与休谟问题有着相同的逻辑。休谟指出,当我们通过归纳之前的履历而得出将来的结论时,我们就不得不面临归纳所带来的风险。举例而言,我们不能由于太阳升起过999次就认定太阳会在来日诰日升起第1000次;同样的,欧洲人曾经认定天鹅只有白色,由于他们只见过白色的天鹅,然而,当玄色的天鹅涌现后,他们之前的推断就被证明为缺点的。同理,Bostrom对付人工智能的道德行具有相同的疑惑,纵然人工智能在人们的日常生活中可以显得善良而可靠,我们仍旧不应该忽略人工智能在将来成为人类威胁的可能性。这样的警告使得人类在面对人工智能时不得不陷入一种两难,一方面,我们可以心安理得地去享受人工智能为我们供应的便捷做事;但是在另一方面,我们又不得欠妥心谨慎地去戒备人工智能的“背叛”。但是,正犹如休谟问题指出的,我们永久无法精确地指出来日诰日的太阳是否会升起,我们也无法判断人工智能在未来究竟会是善还是恶,这样的疑惑指出了人们对付人工智能的轻信,却无法带来一个确定的结论。当然,我们也可以创造,人类的日常生活中无时无刻都在面对这样的“不愿定性”,没有人能够真正地预测未来究竟会发生什么,就犹如我们不能打消本日开车出门有发生车祸的可能性,但是我们不会因此不出门一样;纵然在明知人工智能可能带有风险之后,某些人群仍旧乐意忍受这种风险,享受人工智能的便利。
揣测超级智能的不可能性
与休谟问题的归纳性不同,爱尔兰国立高威大学的John Danaher 教授对人类是否真的能够理解人工智能的所思所想表示疑惑。我们可以意识到,大部分对付人工智能威胁的理论都建立在拟态逻辑上,人们抱负出一个可能的天下,并在个中推演人工智能背叛人类的可能性。但是,这样的推演(如Bostrom所提出的假设),仅仅从人类视角,根据人工智能的技能性与现实进行假想;值得疑惑的是,这样的推测是否真正还原了人工智能的思考办法?而人工智能又在多大程度上会犹如推演中的那样去行动?英国学者Kevin Warwick曾表示,“我们无法真正理解超级智能为什么做出这样那样的决定。当一个机器以超越我们纬度的办法进行思考时,我们又怎么可能去理解、推测它的想法,乃至和它进行讨价还价呢?”
如人类想象中的其他超级智能,例如上帝,不同的是,人工智能或许是全知全能的,但是它的目的并非犹如全善的上帝一样平常是去创造并坚持这个天下的有序运行。我们可以从不雅观察自然天下中创造某些天下遵照的规律,并推测上帝设计了这些规律。但是,我们没有情由去相信人工智能也会遵守并掩护这些规律,而正好相反,人工智能拥有随时毁坏并制订新规定的能力。也正由于如此,我们有情由疑惑科学家是否该当中止开拓人工智能,更恐怖的是,如果Bostrom的假设为真,那么我们并不能知道人工智能是否已经悄无声息地背叛了人类。
当然,人工智能的推戴者会表示,这样的疑惑忽略了人工智能带给人类的巨大便利,以及其带来的科技进步。至少在短期内看来,我们还看不到人工智能有明确背叛人类的行为。但是,谁也不能担保人工智能在未来不会对人类的生活带来危害。或许,人工智能目前为人类带来的帮助,比较较于其可能带来的危害是不值一提的。
结论
虽然我们可以对Bostrom的“人工智能灭世论”提出疑惑,但是我们不应该忽略该理论的严明性。已经有许多领域的专家指出,未来人类可能须要与机器共同生存,以延长人类的生命。但是,与功能单一且明确的机器不同,人工智能更加全面和多样,不可否认的是,人工智能将会为人类带来更多的好处。但是人类是否真的能够相信在智力上远远超过我们的人工智能,人类设计的仁慈性测试又彷佛不能确保人工智能的善良;因此如何担保持续进步人工智能无法对人类的未来造成毁灭性的打击,将是人类在很长一段韶光内须要思考的问题。
参考文献:
Bostrom, N. (2014) Superintelligence: Paths, Dangers, Strategies. Oxford: OUP
Danaher, J. (2015). Why AI doomsayers are like sceptical theists and why it matters. Minds and Machines, 25(3), 231-246.
Yudkowsky, E. (2008) Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Bostrom, N and Cirkovic, M. (eds) (2008) Global Catastrophic Risks. Oxford: OUP
本文系作者个人观点,不代表本站立场,转载请注明出处!