北京师范大学法学院博士生导师、中国互联网协会研究中央副主任吴沈括

欧盟《人工智能法案》获批哪些关键成分将影响人工智能成长_人工智能_法案 AI简讯

文 | 钱丽娜 石丹

ID | BMR2004

2024年3月13日,欧洲议会以523票附和、46票反对、49票弃权正式批准通过了欧盟《人工智能法案》(EU AI Act),由此走出了完成立法程序最主要的一步。

《人工智能法案》文本的草案最早是欧盟委员会在2021年4月提出,内容包括将严格禁止“对人类安全造成不可接管风险的人工智能系统”,包括有目的地操纵技能、利用人性弱点或根据行为、社会地位和个人特色等进行评价的系统等。

北京师范大学法学院博士生导师、中国互联网协会研究中央副主任吴沈括在接管《商学院》采访时表示,作为环球范围内首部关于人工智能管理的综合性法律,欧盟《人工智能法案》提出了天下上第一个全面的、有约束力的可信任人工智能规范框架,使欧盟在对人工智能这一计策性技能与运用的法律规制方面走在了天下前列,也为西方未来的人工智能规则走向和监管生态定下了锚定点。

01

欧盟《人工智能法案》是关于人工智能的首部综合性法律

《人工智能法案》是天下上第一部全面综合的人工智能法案。
作为欧盟数字计策的一部分,欧盟希望规范人工智能(AI),以确保为这一创新技能的开拓和利用供应更好的条件。
人工智能可以创造许多好处,比如更好的医疗保健,更安全、更清洁的交通,更高效的制造,以及更便宜、更可持续的能源。

2021年4月,欧盟委员会提出了首个欧盟人工智能监管框架。
欧盟表示,可用于不同运用程序的人工智能系统将根据其对用户构成的风险进行剖析和分类。
不同的风险水平将意味着不同层级的监管。

欧盟议会的紧张任务是确保欧盟利用的人工智能系统是安全、透明、可追溯、非歧视性和环境友好的。
人工智能系统该当由人监督,而不是仅仅通过自动化的模式,以防止有害结果的产生。
议会还希望为人工智能建立一个技能中立的、统一的定义,可以运用于未来的人工智能系统。

02

针对不同风险级别的规则设定

《人工智能法案》根据人工智能造成的风险水平,为供应者和用户规定了责任。
只管许多人工智能系统只能构成眇小风险,但它们依然须要进行评估。
为此法案将人工智能风险分为四个等级,分别是不可接管风险、高风险、有限风险、风险极小或无风险。

不可接管风险

拥有不可接管风险的人工智能系统被认为是对人类的威胁,并将被禁止。
它们包括:

1.对人或特定弱势群体的认知行为操纵:例如,鼓励儿童有危险行为的声音激活玩具;

2.社会评分:根据行为、社会经济地位或个人特色对人进行分类;

3.人的生物特色识别和分类;

4.实时和远程生物识别系统,如面部识别。

出于司法目的,可以许可有一些例外情形。
“实时”远程生物识别系统将被许可在有限数量的重大案件中,而“后”远程生物识别系统(“post” remote biometric identification systems),即在事宜发生后有明显的延迟的识别行为,只有在法院批准后才被许可用于起诉严重罪过。

这项亘古未有的法案将禁止某些“威胁公民权利”的AI运用,包括基于敏感特色的生物识别分类系统,以及从互联网或闭路电视录像中无目标地抓取面部图像,以创建面部识别数据库。
操纵人类行为或利用人类弱点的AI也将被禁止。

司法部门在利用生物识别系统时也将受到限定,可合法利用的方面包括有针对性地搜索失落踪职员或防止胆怯打击等,且在刑事案件方面,在利用前须要得到法律授权。

高风险

对安全或基本权利产生负面影响的人工智能系统将被视为高风险系统,并将被分为两类:

1.在欧盟产品安全法规规定的产品中利用人工智能,包括玩具、航空设备、汽车、医疗设备和电梯。

2.人工智能系统属于特定领域,必须在欧盟数据库中注册:

关键根本举动步伐的管理和运行教诲和职业培训就业、工人管理和得到自主创业的机会得到和享受基本的私人做事和公共做事和福利司法部门移民、庇护和边疆掌握管理帮忙法律阐明和适用法律。

所有高风险的人工智能系统在上市前和其全体生命周期中都将进行评估,同时人们将有权向指定统领的国家监管部门或主管部门投诉该系统。

透明度哀求

天生式人工智能,如ChatGPT,将不会被归类为高风险,但将必须遵守透明度哀求和欧盟版权法:

由人工智能天生的内容须要进行表露设计模型以防止其天生造孽内容发布用于培训的受版权保护的数据择要

可能构成系统性风险的具有高影响力的通用人工智能模型,如更前辈的人工智能模型GPT-4,将必须进行彻底的评估,任何严重事宜都必须向欧盟委员会报告。

在人工智能的帮助下天生或修正的内容——图像、音频或***文件(例如深度假造)——须要被清楚地标记为人工智能天生,以便用户在碰着这些内容时能够有复苏的意识。

微软、OpenAI等AI模型公司也将受到表露哀求的约束。
它还哀求所有AI天生的内容(图像、音频或***等)都要有明确的标签,以办理人们对虚假信息和干预选举的担忧。

支持创新

《人工智能法案》旨在为初创企业和中小企业供应在人工智能模型发布之前开拓和培训它们的机会。
这便是为什么它哀求国家当局为公司供应一个测试环境,以仿照靠近真实天下的条件。

有限风险

有限风险是指与人工智能利用缺少透明度干系的风险。
《人工智能法案》引入了详细的透明度责任,以确保人类在必要时理解情形,从而培养信赖。
例如,当利用谈天机器人等人工智能系统时,该当让人类意识到他们正在与机器交互,以便他们能够做出连续或退却撤退的明智决定。
供应商还必须确保人工智能天生的内容是可识别的。
此外,为了向公众年夜众通报公共利益问题而发布的人工智能天生文本必须被标记为人工天生。
这也适用于构成深度造假的音频和***内容。

风险极小或无风险

《人工智能法案》许可免费利用风险最小的人工智能。
这包括人工智能***游戏或垃圾邮件过滤器等运用程序。
目前欧盟利用的绝大多数人工智能系统都属于这一类。

03

《人工智能法案》中的关键点及启迪

欧盟《人工智能法案》将AI技能分为四个风险种别,从“不可接管”到高、中和低四个级别,此法案根据不同的风险等级对AI的不同用场进行监管,违规者最高将面临其环球营收7%的罚款。
吴沈括针对法案中的一些要点给予了阐释。

首先,该法案风险划分的原则紧张是基于系统的技能逻辑、运用处景和与此相伴生的风险等级做出的。
人工智能技能风险划分的依据紧张是基于人身权利、民主、自由、法治以及环境等欧洲传统的代价不雅观,以此来划定高风险的系统范围。
该法案基于AI伦理的基本哀求,将具有共识性的关键要素上升至法律规则的层面,以此来设定相应的制度设计。

为此,中国企业的AI研发和创新运用,须要把稳到以欧盟为代表的这种风险导向的监管思路,根据不同的风险等级做出研发的干系哀求,包括运用的监管哀求,比如模型评估、安全评估等等。
企业须要特殊把稳技能的安全性以及技能研发过程中和运用过程中的透明度表露。

“与中国干系的法案比较,欧盟突出的是一种风险的分类监管思路,我国强调的是一种综合管理的思路。
以是从这个意义上来讲,未来的中国人工智能立法或许也有可能受到欧盟立法思路的影响,强化对付人工智能不同的风险类型的识别、提炼和区分解的规则配置。
” 吴沈括表示。

其次,该法案哀求的透明度,其特点是在研发层面哀求建立干系的透明度档案,是一种主动表露的办法。
一方面避免了对付源代码等商业秘密事变的触及,另一方面,通过外部的信息表露,最大限度地提高企业研发和运用过程中的透明水平。
要特殊把稳的是法案的透明度哀求在研发和运用层面有不同程度的配置。

第三,在该法案中,以ChatGPT为代表的AIGC没有被一定地划入到高风险,在很大的程度上与它运用范围的广泛性有密切关联,以是不能以 “一刀切”的办法来牵制,而是通过提高透明度的哀求来强化对它的外部监督。
同时欧盟也通过版权法来强化AIGC等技能运用过程中的知识产权保护,特殊是对付数据库的运用,这些都是立法中比较突出的特点。

总之,欧盟《人工智能法案》的思路还是基于欧盟在多方面的传统代价不雅观,环绕着技能研发和创新的详细场景,以及各自的风险类型与等级做出的一揽子系统的规则设定。
这是它的体系化的反响,与欧盟整体数字立法的逻辑是一以贯之的,也是欧盟数字法治、数字管理的一个突出特点。