《自然》:欧盟严厉的人工智能法对研究和 ChatGPT 意味着什么_人工智能_模子 智能助手

"加利福尼亚州斯坦福大学研究人工智能社会影响的里希-博马萨尼(Rishi Bommasani)说:"就我们如何看待人工智能监管和首创先例而言,该法案影响巨大。

这项立法是在人工智能飞速发展的背景下出台的。
估量今年将推出新版本的天生式人工智能模型,如加州旧金山 OpenAI 公司开拓的 GPT,它为 ChatGPT 供应了动力,而现有的系统正被用于诱骗和传播缺点信息。
中国已经利用了一系列法律来辅导人工智能的商业运用,美国的监管也在进行之中。
去年 10 月,乔-拜登总统签署了美国首个人工智能行政命令,哀求联邦机构采纳行动管理人工智能风险。

欧盟各国政府于 2 月 2 日批准了这一立法,该法律现在须要欧盟三大立法机构之一的欧洲议会的终极签署;估量这将在 4 月份实现。
如果文本保持不变,正如政策不雅观察者所预期的那样,该法将于 2026 年生效。

一些研究职员对该法鼓励开放科学的潜力表示欢迎,而另一些人则担心它会扼杀创新。
《自然》杂志将磋商该法将如何影响科研事情。

欧盟的做法是什么?

欧盟选择根据人工智能模型的潜在风险对其进行监管,对风险较高的运用适用更严格的规则,并对具有广泛和不可预测用场的通用人工智能模型(如 GPT)制订单独的法规。

该法禁止利用具有 "不可接管风险 "的人工智能系统,例如利用生物识别数据推断敏感特色(如性取向)的系统。
高风险运用,如在招聘和司法中利用人工智能,必须履行一定的责任;例如,开拓者必须证明他们的模型是安全的、透明的、可向用户阐明的,并且遵守隐私法规,不存在歧视。
对付风险较低的人工智能工具,开拓者仍需奉告用户何时与人工智能天生的内容进行交互。
该法律适用于在欧盟运营的模型,任何违反规定的公司都有可能被处以高达其环球年利润 7% 的罚款。

"意大利米兰博科尼大学(Bocconi University)打算机科学家德克-霍维(Dirk Hovy)说:"我认为这是一个好办法。
他说,人工智能已迅速变得强大且无处不在。
"建立一个框架来辅导其利用和发展是绝对故意义的"。

总部位于柏林的非营利组织 "算法不雅观察"(AlgorithmWatch)是一家研究自动化对社会影响的机构,该组织的政治学家基利安-维特-迪特曼(Kilian Vieth-Ditlmann)说,有些人认为这些法律走得不足远,为军事和国家安全目的的豁免留下了 "缺口",也为人工智能在司法和移民中的利用留下了漏洞。

它对研究职员的影响有多大?

理论上,影响很小。
去年,欧洲议会在法案草案中增加了一项条款,规定纯粹为研究、开拓或原型设计而开拓的人工智能模型可以免责。
柏林赫蒂学院(Hertie School)研究人工智能及其监管的乔安娜-布赖森(Joanna Bryson)说,欧盟一贯在努力确保该法案不会对研究产生负面影响。
"他们真的不想割断创新,以是如果这会成为一个问题,我会感到非常震荡。
"

霍维说,但该法案仍有可能产生影响,它将匆匆使研究职员思考透明度、如何报告他们的模型以及潜在的偏见。
"他说:"我认为这将渗透下去,促进良好做法的形成。

德国慕尼黑工业大学的年夜夫、旨在实现机器学习民主化的非营利组织LAION(大规模人工智能开放网络)的联合创始人罗伯特-卡茨马尔奇克(Robert Kaczmarczyk)担心,这项法律可能会阻碍推动研究的小公司,它们可能须要建立内部构造来遵守法律。
"他说:"作为一家小公司,适应法律确实很难。

这对 GPT 等功能强大的模型意味着什么?

经由激烈的谈论,政策制订者选择将功能强大的通用模型--如创建图像、代码和***的天生模型--纳入自己的两级种别进行监管。

第一层涵盖所有通用模型,但仅用于研究或根据开源容许发布的模型除外。
这些模型将受到透明度哀求的约束,包括详细解释其演习方法和能源花费,并且必须表明它们尊重版权法。

第二层更为严格,将涵盖被认为具有 "高影响能力 "的通用模型,它们会带来更高的 "系统性风险"。
博马萨尼说,这些模型将承担 "一些相称主要的责任",包括严格的安全测试和网络安全检讨。
开拓者将被哀求公布其架构和数据源的详细信息。

对欧盟来说,"大 "实际上等同于危险:任何在演习中利用超过 1025 FLOPs(打算机运算次数)的模型都属于高影响模型。
Bommasani 说,用如此大的打算能力来演习一个模型须要花费 5000 万到 1 亿美元,因此这是一个很高的标准。
它该当包括 OpenAI 当前的模型 GPT-4 等模型,也可能包括 Meta 的开源竞争对手 LLaMA 的未来迭代。
这一级别的开源模型都要接管监管,不过纯研究模型可以免于监管。

一些科学家反对对人工智能模型进行监管,他们更乐意关注如何利用这些模型。
"德国尤里希超级打算中央(Jülich Supercomputing Centre)的人工智能研究员、LAION 的另一位联合创始人杰尼亚-吉采夫(Jenia Jitsev)说:"更聪明、能力更强并不虞味着危害更大。
Jitsev 补充说,以任何能力衡量标准作为监管依据都没有科学依据。
他们打了个比方,把利用一定人时的化学都定义为危险化学。
"这样做毫无益处"。

该法案会支持开源人工智能吗?

欧盟政策制订者和开源倡导者希望如此。
霍维说,该法案鼓励人工智能信息的可用性、可复制性和透明性,这险些就像是 "宣读开源运动的宣言"。
博马萨尼说,有些模式比其他模式更开放,目前还不清楚该法案的措辞将如何阐明。
但他认为,立法者故意将通用模型(如 LLaMA-2 和巴黎初创公司 Mistral AI 的模型)打消在外。

Bommasani 说,欧盟鼓励开源人工智能的做法与美国的策略明显不同。
"欧盟的思路是,开源对付欧盟与美国和中国竞争至关主要。
"

如何实行该法案?

欧盟委员会将成立一个人工智能办公室,在独立专家的建议下监督通用模型。
该办公室将制订评估这些模型能力和监控干系风险的方法。
但是,纵然像 OpenAI 这样的公司遵守了干系规定并提交了弘大的数据集等资料,Jitsev 也质疑公共机构是否有足够的资源对提交的资料进行审查。
"透明化的哀求非常主要,"他们说。
"但对付如何实行这些程序却很少考虑"。

doi: https://doi.org/10.1038/d41586-024-00497-8