当地韶光4月27日,经由几个月的紧张会谈,欧洲议会成员已经弥合不合,就《人工智能法(The AI Act)》提案达成临时政治协议,哀求支配ChatGPT等天生式人工智能工具的公司表露用于开拓其系统的受版权保护的材料。
该协议为可能是天下上第一部综合性人工智能法律的《人工智能法》出台铺平道路。

欧盟杀青《人工智能法》协议为生成式AI设立版权规则_人工智能_目标 绘影字幕

在定于5月11日进行的关键委员会投票前,提案文本可能仍需在技能层面上进行细微调度,6月中旬估量将进行全体投票。

末了一刻的变革:天生式人工智能监管

《人工智能法》估量将成为欧盟一项具有里程碑意义的立法,已经酝酿了两年多。
立法者发起根据他们认为的风险级别对不同的人工智能工具进行分类,从最低到有限、高和不可接管。
利用这些工具确当局机构和企业将根据风险级别承担不同的责任。

该法案范围广泛,将统领所有人工智能产品或做事的供应方,涵盖可以天生内容、预测、建议或影响环境的决策的系统。

除了企业对人工智能的利用外,法案还将研究公共部门和司法部门利用的人工智能,并与《通用数据保护条例 (GDPR)》等法律协同事情。
与人类互动、用于监视目的或天生“深度假造”内容的人工智能系统的利用者将面临严格的透明度责任。

直到末了一刻,欧盟立法者还在对提案中一些最具争议的部分进行谈论。

“通用目的人工智能系统(General Purpose AI System)”是立法者提出的一个种别,用于阐明具有多个运用程序的人工智能工具,例如ChatGPT这样的天生式人工智能模型。
如何处理 “通用目的人工智能系统”一贯是谈论中辩论激烈的话题。
欧洲议会确认了之前的提案,即对“通用目的人工智能系统”的一个子种别——根本模型施加更严格的哀求 。
根据哀求,开拓ChatGPT等天生式人工智能工具的公司必须表露他们是否在系统中利用了受版权保护的材料。

协议达成前夕唯一主要的变革便是关于天生式人工智能模型,“这些模型的设计和开拓必须符合欧盟法律和基本权利,包括表达自由。

《人工智能法》还禁止“有目的的”操纵。
“有目的的”这个词有争议,由于可能难以证明故意性,但仍被保留下来。

其余,在司法、边疆管理、事情场所和教诲领域,法案哀求禁止利用AI驱动的感情识别软件。

欧盟立法者对预测性警务(predictive policing)的禁令从刑事犯罪扩展到了行政犯罪,其依据是荷兰儿童福利丑闻,该丑闻中成千上万的家庭因有缺陷的算法而被误判为敲诈。

高风险分类变革

许多人工智能工具可能被认为是高风险的,例如用于关键根本举动步伐、司法或教诲的工具。
它们比“不可接管”低一级,因此不会被完备禁止,但须要在操作中保持高度透明。
高风险人工智能的利用者可能须要完成严格的风险评估,记录他们的活动,并向当局供应数据以供审查。
这可能会增加公司的合规本钱。

最初的提案将某些关键领域和用例的人工智能办理方案自动归类为高风险,这意味着供应商必须遵守更严格的制度,包括对风险管理、透明度和数据管理的哀求。
欧洲议会引入了一个额外的层次,使这些类别的人工智能模型只有在对康健、安全或基本权利构成重大风险的情形下才会被视为高风险。

重大风险被定义为“由于其严重性、强度、发生的概率和影响的持续韶光而具有重大意义的风险,并且能够影响一个人、多个人或一个特定群体”。

根据绿党的哀求,用于管理能源网或水系统等关键根本举动步伐的人工智能,如果带来严重的环境风险,也将被归类为高风险。

此外,中左翼立法者还争取到了一个规定:根据《数字做事法》(DSA)的定义,超大型在线平台的推举系统将被视为高风险。

欧洲议会议员为高风险人工智能模型的供应者处理敏感数据(如性取向或宗教崇奉)以检测负面偏见的过程,纳入了额外的保障方法。
此外,评估必须发生在受控环境中。
敏感数据不能被传输给其他方,并且必须在偏见评估后被删除。
供应者还必须记录数据处理发生的缘故原由。

《国家法律评论》4月26日宣布称:“《人工智能法》将产生环球性的影响,由于它将适用于在欧盟供应或利用人工智能系统的组织;以及位于第三国(包括英国和美国)的人工智能系统的供应者或利用者,如果这些人工智能系统产生的输出在欧盟利用。