人工智能会产生自立意识?可能威胁人类?图灵奖得主:未来不好说_人工智能_人类
人工智能已成为现在发展的一个热点,从工业生产到物流运输,从尖端科技到日常生活,人工智能无处不在。通过大数据演习和学习,人工智能的迭代速率越来越快,处理繁芜问题的能力越来越强,乃至还拥有了自主学习能力。给它们足够的空间和韶光,人工智能会不会进化出意识呢?对此,图灵奖得主表示拉吉·雷迪表示“这不好说”,暗昧其辞的回答更让人觉得意味深长。
领先人类的人工智能
以前说,不好好学习只能到流水线上拧螺丝钉,现在,连拧螺丝钉的机会都已经被机器取代了。自动化生产发展太快,人工智能也进入爆发阶段,并且逐步领先人类。
伴随着信息技能发展,人工智能已经深入到人类社会的各个方面。最初,它们通过打算机和干系机器搭配,可以帮助人类很多重复性的根本事情。现在,随着人工智能学习能力越来越强,它们已经具备了强大的自主学习剖析能力,可以和人类实时交互。
最根本的机器手臂,在流水线上轻松完成重复性的劳动,不知疲倦精度还高,生产效率比人类提升好几倍。更高真个阿尔法狗,拥有自主学习剖析能力,在围棋领域降服天下冠军柯洁,而在变革更少的国际象棋和象棋领域,人工智能早已经轻松击败人类。
人类创造的事物,终极打败了人类,无论怎么想,这都是一件不可思议的事,但现在确确实实发生了。虽然暂时局限在几个领域,但随着人工智能涉足的领域越来越多,是否会全面碾压人类呢?
毕竟,现在每个家庭都会有各种各样的智能产品,如聪慧屏、扫地机器人、智能家居,还有现在大火的电动汽车等,这都可以算作人工智能产品,它们具有一定的学习剖析能力,可以自主完成相应的事情,给我们的生活带来极大便利。
生产和生活领域涌现了越来越多的人工智能产品,在军事领域类似的产品就更多了,包括各种类型的无人作战系统、智能导弹,还有智能指挥系统等。
无人机、无人潜航器、无人战车等都属于无人作战系统,能够在没有士兵参与的情形下,实行侦察、打击任务等。
智能指挥系统更牛,它拥有自主决策和应对能力,可以通过算法优化和深度学习,剖析预测敌方的作战意图,有针对性地订定兵力支配方案和作战操持。
虽然现在这类系统还只能起到赞助浸染,决策权终极在人类手中,但会不会有一天,这些系统绕开人类决策,直接发布作战命令呢?也便是说如果人工智能持续发展,会不会产生自我意识,进而对抗或者消灭人类呢?
《闭幕者》照进现实天下
人工智能反杀人类的影视剧,美国拍过很多,大片《闭幕者》、美剧《西部天下》便是很有代表性的作品。按照目前人工智能进化的速率,这很可能会变成现实。
早在2016年,外国有科研团队研发了一个名为“索菲亚”的高智能机器人,它就拥有自己的情绪和想法,还表示自己想过上正凡人的生活。面对科研职员的问题,它回答自己的终极目标是要“毁灭人类”。
人类制造的机器,终极的目标竟然是毁灭人类,这和美剧《西部天下》展现的剧情不谋而合。
在一座乐园里,人类设计的仿活气器人,按照设定的程序运行,原来供人类取乐,终极机器人觉醒,逃出乐园开始反杀人类。
虽然人类创造了人工智能,但人工智能在很多方面都比人类要更精良,运行速率更达到人类无法企及的高度。
如此胆怯的人工智能,又渗透到人类社会的方方面面,如果有一天真的“造反”了,后果切实其实不敢想象。
现在炒得火热的ChatGPT4,便是一个算力很强大的人工智能软件,通过不断地迭代学习,不但可以和人类正常交互,还拥有一定的创意设计能力,还在医疗领域大展技艺。
越来越强大的算力,越来越高的智能,有没有可能在某一天,类似的系统会产生自主意识呢?到时候人类该何去何从?
要知道,在“索菲亚”说出毁灭人类的目标后,天下上很多科学家都开始担心,一旦人工智能失落控,很可能便是人类的末日。
就如电影《闭幕者》里的场景一样,人类在人工智能掌握的天下中苟延残喘。那人工智能万一产生自主意识,会对人类带来哪些威胁呢?
人工智能失落控的危害
没有人喜好被别人掌握,除非给出足够的筹码,人工智能万一有了自主意识,肯定也会有类似的想法,绝对不想再被人类奴役,反过来还有可能要统治人类。一旦有了自主意识的人工智能失落去掌握,将给人类带来巨大的危险。
生存与扩展,是每一个种群与生俱来的本能,人工智能也不会例外。一朝得势之后,肯定会为了生存下去而采纳各种手段,在弱小时欺骗人类,在强大后不断复制自己进而统治人类。
产生自己的意识后,人工智能也会考试测验理解这个天下,并按照自己的需求来改变天下。而人工智能和人类的需求一定不可能同等,这种代价冲突无疑会加剧双方的冲突。
就如人工智能发展之后,可能会形成一套自己的伦理道德体系和社会运行办法,到时候与人类社会产生冲突,要么一方屈从,要么一方被彻底消灭。
人工智能有了意识,也就有了希望,很可能会利用遍布天下的网络系统,构建起一个属于自己的天下,将关键资源掌握在自己手中。
没有了资源,人类发展举步维艰,终极可能沉沦腐化为人工智能豢养的物种,从而失落去对地球的掌握。此外,人工智能也不用除利用人类的弱点来攻击人类,带来更直接的毁灭风险。
毕竟,“阴郁丛林”法则可不但是大刘在小说中的假想,而是现实社会中真实存在的,现在国与国之间的关系,不便是赤裸裸的“阴郁丛林”法则?
同为人类的国家之间关系尚且如此,更何况是人工智能和人类这两个不同的物种之间的关系了。
为了确保自己的生存,并且拥有更大的生存空间,再加上没有产生意识前被人类奴役的历史,人工智能一旦霸占了上风,随之而来的很可能便是对人类的报复。
虽然目前人工智能还达不到这种水平,但随着技能进步,这种风险也不是完备没有可能。面对风险,人类又该如何应对呢?
人类如何避免人工智能危急?
在很早之前,人类就有过这方面的担忧,然后费尽心思地制订了人工智能三大定律,以期担保人类的生存安全。
这三大定律是由科幻小说家阿西莫夫提出来的,后来被广泛运用于机器人学和人工智能领域,成为人工智能伦理学的基石。
这三大定律包括:1.机器人不得侵害人类,或者在不危害人类利益的条件下许可儿类受到侵害;2.机器人必须服从人类命令,除非这些命令与第一定律冲突;3.机器人必须保护自己的存在,除非与以上两条定律冲突。
这三大定律的核心思想,便是保护人类的生命财产安全,确保机器人不会对人类造成任何侵害。
人类在设计人工智能时,严格按照这三大定律实行,可以一定程度上保护人类安全。之以是说“一定程度”上,是由于人工智能程序可能溘然涌现bug,从而让其摆脱这三大定律的束缚。
除了规则方面的掌握,人类还可以从实体方面入手,譬如掌握能源。由于人工智能运行须要大量的能源,因此掌握住了能源,就相称于掐断了人工智能的命脉。
不过,这也只是治标不治本的办法,毕竟现在人工智能已经深入到人类社会的方方面面,很多系统都必须保持24小时运行,根本无法割断能源供给。
末了一个方法,便是加强立法事情,履行更严格的监管。针对人工智能的研发、利用等各个环节,都制订严密的法律法规,用法律来约束人类的行为,从而避免人工智能的无序发展。
通过监管机构和更严格的安全评估,对所有人工智能系统展开评估,确保其运行处于安全监控之下,不会对人类造成未知风险。
人工智能在方便我们生活的同时,也带来了不可预知的风险,不过我们也不能杞人忧天因噎废食。
任何一件事物,总会有好坏两方面的影响,就算这天常平常常见的菜刀,在厨师手里便是工具,在杀人犯手里便是凶器,人工智能同样如此,就看人类如何规范它的发展。
本文系作者个人观点,不代表本站立场,转载请注明出处!