人工智能首尔峰会召开OpenAI等16家AI公司作出了什么安然承诺?_人工智能_公司
周二(21日),美国、英国、加拿大、日本、韩国等10个国家以及欧盟的领导人共同签署《首尔声明》,呼吁加强国际AI管理互助以及管理框架之间的互操作性,倡导以风险为根本的政策和管理框架,支持启动首个国际AI安全研究所网络,匆匆使国家间形成对AI安全的共同理解,并在研究、标准和测试方面进行折衷。
同日,16家环球领先的科技公司在峰会期间作出“前沿AI安全承诺”,将努力确保其最前辈的AI模型的安全性,并履行负任务的管理,实现公开透明。
联合国秘书长古特雷斯(Antonio Guterres)在峰会开幕式上表示,自去年英国布莱切利峰会召开以来,“我们看到了改变生活的技能进步,也看到了威胁生命的新风险”。他认为,须要就AI问题制订普适的防护方法,并定期开展对话。
欧洲复兴开拓银行前行长查克拉巴蒂(Suma Chakrabarti)此前接管第一财经采访时表示,AI等领域的环球数字管理的核心问题是各国政府能否统一标准,以实现数字根本举动步伐的跨国互操作性。目前来看,个中存在很大的障碍,例如不同国家和地区的公民对政府和私营部门处理数据的信赖程度差别很大。
前沿AI企业的安全承诺
AI首尔峰会在开幕前夕发布了一份名为《关于前辈人工智能安全性的国际科学报告(中期报告)》。报告称,只管通用AI可以用来推进公共利益,但也可能被用来造成危害,乃至带来系统性风险。AI的未来充满不愿定性,但社会和政府的决策将显著影响其未来。
这一背景下,政府官员和AI行业高管赞许就此采纳基本安全方法。参与承诺的16家公司包括美国、法国、中国、韩国以及阿联酋的AI企业,例如:美国科技巨子亚马逊、微软、Meta、谷歌,AI初创公司Anthropic、OpenAI和特斯拉创始人马斯克建立的xAI;法国的Mistral AI;韩国的三星电子以及互联网公司Naver;阿联酋的AI公司G42以及技能创新研究所(TII);以及中国的智谱AI等。
这些企业或组织承诺,在开拓和支配前沿AI模型和系统时将有效识别、评估和管理风险;对安全开拓和支配前沿AI模型和系统卖力,遵守承诺并建立内部问责和管理框架;对外部行为者保持适当的透明度,包括政府。例如,企业应设定模型或系统的严重风险阈值,并监控是否靠近或超过这些阈值;如果超出阈值,必须设定应对风险的明确流程。在保持透明度方面,除非会增加风险或透露敏感商业信息,企业应公布承诺的履行情形。
根据英国政府的声明,这些公司赞许,“如果缓解方法无法将风险掌握在阈值以下,则根本不开拓或支配模型或系统”。
签署协议的AI公司之一Cohere首席实行官戈麦斯(Aiden Gomez)说,自英国峰会以来,有关人工智能监管的谈论已从更长远的末日场景转向更实际、更紧迫的问题,比如如何在医疗或金融等领域利用人工智能,如何杜绝缺点和虚假信息以及偏见,担保数据安全,并确保人类操作员或决策者始终参与或监督关键过程。
AI安全的统领权问题
这并非行业领先的AI公司第一次作出承诺,但从过往履历来看,在缺少硬性立法的情形下,这些志愿承诺彷佛仍有局限性。
例如,去年11月的英国峰会上,Anthropic、OpenAI和亚马逊等科技公司赞许,在其发布前辈的AI模型之前,政府可以在安全测试中发挥浸染。该峰会还成立了英国人工智能安全研究所(UKAISI),大力推动由科学家主导的对AI能力和安全风险的定期评估。但事实上,Anthropic于今年3月推出了最新一批模型,却尚未许可UKAISI对其模型进行发布前测试。该公司联合创始人克拉克(Jack Clark)称,该公司正在与UKAISI互助,研究政府如何进行支配前测试,但他认为这“很难履行”。
专注于AI研究欧洲智库Ada Lovelace Institute研究伙伴关系部副主任斯特雷特(Andrew Strait)表示,六个多月过去了,“发布前测试”的承诺彷佛未能以任何故意义的办法实现。“现在该当非常清楚,我们不能依赖人工智能公司的善意。志愿协议不能替代供应这种访问的法律授权。”他称。
据多位知情人士透露,AI公司对UKAISI更深入地参与测试的紧张顾虑包括担心技能机密透露,以及测试会拖延产品的推出。
统领权则是另一个问题。许多经济体都在建立自己确当局机构,加强对AI安全的管理框架培植。
除了UKAISI外,今年2月,美国启动了美国人工智能安全研究所(USAISI)。欧盟新设了人工智能办公室,促进欧盟《人工智能法案》的统一适用,并重点监测由通用AI模型产生的不可预见的风险。在亚洲地区,新加坡去年成立了人工智能验证基金会(AIVF),与IBM、微软和谷歌等公司互助开拓人工智能测试工具,以便负任务地利用和制订国际标准。日本也在今年2月成立了人工智能安全研究所,研究AI安全评估方法和标准,并开展国际互助。
4月初,美国和英国签署了一项人工智能协议备忘录,这是环球首个关于AI安全的双边安排,就如何测试和评估新兴AI模型的风险开展正式互助。不过,Meta公司环球事务总裁克莱格(Nick Clegg)对媒体表示:“你不能让这些AI公司在每一个不同的法律统领区都跳来跳去,从我们的角度来看,我们的紧张关系当然是与美国人工智能安全研究所(的互动)。”
随着欧洲理事会在21日正式批准了欧盟《人工智能法案》,AI领域的硬性立法也不再是一片空缺。咨询公司罗兰贝格环球管理委员会联席总裁戴璞(Denis Depoux)对第一财经称,该公司已经提醒客户对AI领域的更多监管作出准备。“(和欧洲不同)美国虽然没有相应的联邦法律,但一些州已经履行了自己的规定。这凸显了监管机构重视保护消费者隐私、防止技能滥用的趋势。”他说,这种监管转变是积极的,不仅为消费者供应保护,也通过保护数据为公司自身供应了安全,AI领域也将如此。
意大利经济发展部前副部长杰拉奇(Michele Geraci)接管第一财经采访时则提醒,进行这一领域的立法并不大略。他称:“实现创新与监管之间的平衡是一项重大寻衅,尤其是欧盟常常被认为随意马虎过度监管。目前试图通过立法办理问题的方法可能不是最有效的策略。人工智能未来五年的影响和发展轨迹在很大程度上仍无法预测,因此很难设想其潜在运用。这种不愿定性使制订法律来管理一项仍在发展的技能的任务变得更加繁芜。”
(本文来自第一财经)
本文系作者个人观点,不代表本站立场,转载请注明出处!