沙磊:美AI治理新动向给我们提了个醒_人工智能_美国当局
近期,美国成立了人工智能安全研究所同盟(AISIC)。它从属于美国国家安全与技能研究所的人工智能安全研究所,将致力于为高等人工智能模型制订互助研究和安全指南。这种将人工智能(AI)与安全直接联系的美国人工智能管理新动向,值得我们高度关注。
这首先标志着美国政府将人工智能安全性问题提升到国家计策高度。过去几年,美国在人工智能研发上持续加大投入力度,在算法、芯片、运用处景等取得长足进展。与此同时,华盛顿也愈加意识到人工智能可能带来的安全风险,例如利用深度学习进行的语音合成、图像天生等技能产生的信息误导与敲诈性问题;自动驾驶、医疗赞助决策等领域的算法偏见问题导致的歧视与侵害;数据和模型的隐私与权限掌握漏洞引发的安全事宜;以及不同自动化系统之间信息交互和决策失落误导致的连锁反应等。尤其是最近大措辞模型技能将人工智能的效果提升到一个新的高度,同时也带来更大的安全寻衅。正是基于对各类潜在风险的认知,美国政府通过AISIC的建立将人工智能安全问题上升到国家计策高度,以推动跨部门、跨领域的系统管理。
美国人工智能安全研究所同盟的紧张任务之一是制订红队攻击、安全检测评估等方面的辅导方针。所谓“红队攻击”,是指模拟黑客入侵系统、发掘系统漏洞的一整套测试方法论。这类方针和标准一旦建立,将对人工智能安全研究的开展带来规范化和制度化的勾引。比如标杆测试哀求会推动各种系统在设计开拓过程中必须考量并达到的安全指标;风险评估框架会供应更加明确系统的思路,以将安全研究贯穿人工智能技能的生命周期。我国有一些机构(比如中关村落实验室)虽然也开展了一定的大模型安全干系的技能研究,并进行了初步的评估体系构建事情,但整体而言干系标准化事情还比较薄弱。这提醒我们,须要紧密关注,并加快在数据评估、模型审计、算法健壮性等领域的检测及标准研究布局。
该同盟采纳政府牵头,产学研多方共同参与的组织模式。除了政府干系部门外,有名企业的安全部门卖力人,以及来自顶尖高校与科研机构的专家学者也参与个中。这一方面凸显美国政府在重大计策科技领域推进联合攻关、产学研深度协同的政策取向;另一方面也正反响出人工智能安全问题的高度繁芜性,须要跨界、跨领域的配合尽力与领悟创新。这种推进模式为我国供应了有益借鉴,我们也应进一步加强部门之间以及与企业、高校、科研院所之间在人工智能安全标准制订、监管体系构建、技能研发等方面的信息沟通和互助,形成政策勾引、规范培植和科技供给的协同效应。
未来,美国政府极有可能在人工智能安全领域连续推出更多主要举措,以进一步完善顶层设计和管理格局。鉴于当古人工智能发展仍处于上升期并呈加速迹象,各种运用创新层出不穷,安全隐患和风险也会逐步显露。因此,美国在安全政策、法规制订以及技能办理方案等方面的持续作为,都须要我们保持积极关注。同时,这也可以为我国人工智能安全管理体系培植供应主要履历。
我国也可采取一些有效方法来提升人工智能系统的安全性。比如,通过及时节制人工智能安全领域的最新态势,更早创造可能的风险点:可以构建一套动态的人工智能安全事宜监测系统,通过实时监测在线人工智能系统的输出,实时跟踪国内外人工智能领域涌现的数据透露、算法歧视等安全事宜。在此根本上,可以进一步开拓人工智能系统输出的在线检测工具,对文本、音频、***平分歧模式的人工智能天生内容进行安全风险审核。此外,还须要构建快速的人工智能系统安全风险反馈和改动机制。也便是说,当检测到算法或者模型天生的不当有害内容时,可以迅速定位系统中的问题,并反馈给干系企业和研究机构,哀求其改动模型以减微风险。这样一套“监测—检测—反馈—改动”的闭环系统,可以更加及时地创造人工智能潜在的安全隐患,并推动行业主体积极履行安全生产任务。总体而言,在构建系统化、规范化的人工智能安全政策及技能体系上,我们须要有更加清晰的思路和行动指引。(作者是北京航空航天算夜学人工智能学院教授)
本文系作者个人观点,不代表本站立场,转载请注明出处!