中国成长高层论坛2024丨人工智能:时代的机遇和寻衅_人工智能_风险
人工智能发展与管理专题研讨会现场
中国经济时报 赵姗
中国发展高层论坛2024年年会于3月24日在京召开。在人工智能发展与管理专题研讨会上,十几位中外高朋共同研讨如何利用年夜大好人工智能的机遇,应对年夜大好人工智能的寻衅。国务院发展研究中央副主任张顺喜主持专题研讨会。
科学技能部副部长吴朝晖在作主题发言时表示,人工智能将成为第四次工业革命的标配,中国政府高度重视人工智能发展,通过加强人工智能领域科技创新、推动人工智能深度赋能实体经济、推进人工智能伦理管理等方面发展。
对付人工智能的发展趋势,吴朝晖认为,一是人工智能正在迈向多智能领悟新阶段,以ChatGPT为代表的技能打破,打开了迈向通用人工智能的序幕,大模型已成为主流技能路线,并加快迭代演进。二是人工智能将成为第四次工业革命的标配,它将推动传统实体经济实现革命性升级与发展,从而催生智能经济新形态,成为发展新质生产力的主要引擎。三是人工智能将引发社会发展的深远变革,它将广泛地运用于教诲、医疗、家政等行业,充分知足消费者对付自动化、实时化、个性化的哀求。
“我们希望与天下各国携手互助,共同探索人工智能边界,共享创新成果,共管风险与寻衅,从而共赢美好未来。”吴朝晖说。
北京智源研究院创始人、创始理事长张宏江在作主题发言时表示,当前,AI进入了一个新的发展阶段,以大模型为代表的阶段,它代表了第四次技能革命,带来了效率的提高,为我们的生活带来了诸多方便,将会创造大量的代价以及一个又一个新的家当。但同时,人工智能可能导致环球性的灾害性后果。为了避免这样的危险发生,我们须要划出红线,改进管理机制,同时须要研发更多安全的技能,掌握人工智能不去超过这些红线。要想做到这一点,最主要的一条是坚持和加强国际科学界和政府间在安全方面的互助。
在小组谈论中,Verimag实验室创始人、2007年图灵奖得主约瑟夫·希发基思表示,人工智能本身既不是好的,也不是坏的,关键的寻衅是要明智地利用它,通过规范来预防风险。他认为,有两种紧张风险,一种是技能风险,另一种是人为的风险,这可能是来自于对AI的误用或者无意中的利用而产生的影响,可以通过监管或者法律的框架来掌握。由于AI所带来的自动化导致的失落业问题,也可以通过适当的社会政策来应对。此外,还有两种风险,一个是怎么在选择和性能之间取得平衡,如果我们不能确保系统因此公道、中立的办法利用可靠信息,则不要将决策权交给系统。另一个是性能的提升是否与人类掌握的缺失落相平衡。
喷鼻香港中文大学(深圳)前海国际事务研究院院长、广州粤港澳大湾区研究院理事长郑永年表示,人工智能的发展与管理必须要同时发展、同时进步。美国跟中国在AI领域实际上是互补的,各有自己的比较上风,可以相互学习。在管理方面,在国际社会上,更须要中美两个国家在AI管理领域进行互助。互联网AI最主要的还是要开放,中国要通过开放向美国学习,把发展做起来;美国应该向中国的监管、管理方面学习,相互进步。
清华大学苏世民书院院长薛澜表示,人工智能的发展面临一系列风险须要戒备。从人工智能管理的角度来看,面临五大寻衅。一是人工智能的技能发展是非常快的,但是我们管理体系的构建相对慢一些。二是信息不对称的问题。比如,企业不知道政府规制最关心的问题在哪儿;对技能发展可能会带来什么风险,政府不清楚。三是戒备风险的本钱要远远高于它有可能造成危害的本钱,以是风险管理的本钱较高。四是在环球管理方面,相互之间有重叠乃至也有抵牾的机构,都对某个问题有干系的利益,都希望来参与管理,使得环球管理体系的形成有很大的困难。五是人工智能领域的管理,一定要有美国和中国的互助,但是目前这种地缘政治也会带来相应的一些问题。
怎么去办理上述这些问题?薛澜建议,第一,要加强安全和技能。目前,在安全领域的研发是不足的,今后在这方面须要加强研究,尤其是须要加强国际互助。第二,通过敏捷管理的办法办理管理方面的问题。第三,鼓励企业的自我规制。第四,加强国际管理。在环球管理方面,联合国刚刚通过了协议,并且召开高等别专家的谈论。第五,在人工智能领域,中美双方一定要加强互助,这样才能真正办理人类面临的各种问题。
清华大学智能家当研究院院长、中国工程院院士张亚勤表示,目前,Sora的能量很大,但是刚刚开始,未来5年,我们会看到其在各领域的大规模运用,以是会带来很多风险。他认为有三大风险:一是信息天下的风险。比如,有缺点的信息、虚假的信息。二是在大模型领域独占的幻觉,但这个风险本身是可控的。而比较大的风险是,当把信息智能延伸到物理智能、延伸到生物智能,在大规模利用的时候,会涌现风险的规模化。三是大模型连接到经济体系、金融体系、电站、电力网络等的风险是相称大的。
若何防备这些风险?张亚勤提出以下五个建议。第一,标识我们所产生的数字人或者智能体。第二,要有映射和注册机制。未来会有很多机器人,但机器人本身是一个从属体,不是主体,必须要映射到主体。第三,建立分级系统编制。对付一样平常规模的模型监管可以少一点,对付前沿大模型、万亿级参数用到物理天下无人车的、用到金融系统的、用到生物系统监管的要多一些,要分级。第四,呼吁把10%的经费投入到大模型风险的研究中,这不仅是政策研究,还有很多算法、技能的研究。第五,人工智能大模型一定不要超过红线。红线可能在不同的韶光并不一样,但是须要有这个红线。中国须要和环球不同人工智能领域一起互助,否则就会有生存风险。
总 监 制丨王 辉 车海刚 监 制丨李丕光 王彧 刘卫民 主 编丨毛晶慧 编 辑丨谷 云
本文系作者个人观点,不代表本站立场,转载请注明出处!