10月16日,已故著名物理学家斯蒂芬·霍金末了的著作《重大问题简答》一书出版,涉及他对科学与社会所面临最大问题的思考,包括“人类是否会一贯在地球上生存下去?(可能不会)”、“韶光旅行是否可能(仍无法打消可能性)”等;也对诸如地球面临的最严重威胁、“超人”种群以及外太空是否存在聪慧生命、如何开拓太空殖民地等问题进行了末了的预测。
这些预测饱含了霍金对人类未来深深的忧思。

“超人”种群或主导世界AI与人类意志冲突这是霍金最后的忧思_霍金_人类 绘影字幕

据美国石英财经网站10月15日宣布,霍金在书中称,未来人工智能可能形本钱身的意志——与我们人类相冲突的意志;一种利用基因工程超越差错的超人种群将霸占主导地位,这可能毁灭人类。

人类的进化没有边界

据美国石英财经网站10月16日宣布,在整本书中,霍金对人类在地球上的未来持悲观态度。
他写道,政治不稳定、景象变革以及核暴力的可能性,使人类在地球上发展的持续性变得难以为继。

霍金认为,地球面临的头号威胁是小行星碰撞,类似那种导致恐龙灭绝的碰撞。
霍金写道:“可是,我们(对此)无法防御。

更直接的威胁时景象变革。
霍金写道:“海洋温度上升将融化掉冰冠,开释出大量二氧化碳。
双重效应可能导致我们的景象类似于金星,气温达到250摄氏度。

霍金认为,核聚变发电会授予我们清洁能源,不排放污染,不引起环球变暖。

在一篇题为《我们如何塑造未来》的章节中,霍金不同意人类处于“进化顶峰”这一不雅观念。
在他看来,人类的进化和努力没有边界。

他认为人类未来有两种选择:首先,探索其他可供人类居住的替代星球,他在不止一章中提倡太空殖民,包括殖民月球、火星或星际行星等;其次,积极利用人工智能来改进我们的天下。

人工智能将形本钱身的意志

当然,霍金也强调了规范管理人工智能的主要性。
他指出,“未来人工智能可能形本钱身的意志,与我们人类相冲突的意志”。
他在书中写道,应该制止可能涌现的自动武器武备竞赛,如果发生类似于2010年股市闪电崩盘那样的武器崩盘,后果将不堪设想。

他接着写道:“总之,对人类来说,超级聪慧的人工智能的涌现不是福便是祸,二之必居其一。
人工智能的真正危险并非在于恶意,而在于能力。
超级聪慧的人工智能终将极其善于实现目标。
如果这些目标与我们的目标不一致,那我们就麻烦了。

他主见政策制订者、科技行业和普通大众负责研究人工智能的道德影响。

超人种群将霸占主导地位

据英国《星期日泰晤士报》10月15日宣布,霍金最大的担忧是:他担心富人不久将能够编辑自己及厥后代的DNA,提高影象和疾病免疫力。

石英财经网站在宣布中写道,霍金认为,未来1000年的某个时候,核战役或环境灾害将“严重毁坏地球”。
可到那时,“我们的天才种族将已经涌现相识脱地球粗暴束缚的方法,因此能够降服灾害。
”不过,地球上的其他物种可能做不到。

这些成功逃离地球的人很可能是新的“超人”,他们利用诸如“规律成簇间隔短回文重复系统(CRISPR)”这样的基因编辑技能超过其他人,科学家可利用此类基因编辑技能修复有害基因并加入其他基因。

霍金还表示,纵然政治家设法用法律禁止这一做法,但这批人会不顾禁止基因工程的法律约束,提高自己的影象力、疾病抵抗力和预期寿命,这将对天下其他人群构成危急。

在《星期日泰晤士报》10月15日揭橥的文章节选中,霍金称:“我敢肯定本世纪之内人们将找到修正智力和资质的办法。
政治家可能会制订禁止人类基因工程的法律,但肯定有人抵挡不了改进人类特色——比如影象力、疾病抵抗力和寿命的诱惑。

他表示:“一旦涌现这种超人,未经基因改造而提高的人必将碰着重大政治问题,他们无力竞争,大概或变得可有可无,乃至会绝种。
不过,未来将涌现一种不断加速改进的自我设计人类,如果这种人类种族能不断设法重新设计自己,它很可能扩散开来,殖民其他行星和星球。

有关为何尚未创造聪慧生命或是聪慧生命没有拜访地球这类问题,霍金承认有各种各样的说法,他对此持谨慎乐不雅观的态度,但他首选的阐明是:人类“忽略了”外太空聪慧生命的形式。