张亚勤简要总结了人工智能大模型的发展趋势:一是多模态、多尺度、跨模态的新智能;二是未来五年要在全体架构上有大的打破,追随尺度定律(Scaling Law),但未必是transformer模型构造;三是智能逐渐向“人工智好手机”“人工智能PC”边缘侧延伸;四是可以实现定义任务、方案路径、自我升级、自我编码等的自主智能;五是信息式智能逐渐走向物理天下;六是大模型与生物体贯串衔接的生物智能。

张亚勤:各国要在全球智能领域合营合作将人工智能红线作为社会风险合营应对_人工智能_智能 AI快讯

张亚勤认为,未来五年随着各大领域大规模运用人工智能技能,将带来三方面风险,包括:信息天下的风险,包含缺点、虚假信息的风险;已经涌现的大模型幻觉问题,随着信息智能大规模运用延伸至物理智能、生物智能时,风险也会规模化;大模型与经济体系、金融体系、军事系统、电力网络相连接的风险。

如何戒备这些风险问题,张亚勤提出五个长期建议。
一是像标识广告一样,对人工智能生产的数字人等智能体进行标识。
二是设立映射和注册机制。
明确机器人作为从属体,必须映射到主体,这个主体可以是人或公司等法定实体,如果机器人涌现问题,就可以追溯主体任务。
三是建立分级监管系统编制机制。
对运用在物理天下、生物系统平分歧领域的大模型,分级监管。
四是加大对大模型风险研究的投入,呼吁政府、科学家、技能从业者和企业家共同参与,一边发展,一边管理。
五是制订人工智能发展的红线。
目前北京人工智能国际安全对话已经达成了《北京AI安全国际共识》,提出人工智能发展的红线。
各国要在环球智能领域共同互助,将人工智能红线作为社会风险共同应对。