《自然》:欧盟严厉的人工智能法对研究和 ChatGPT 意味着什么_人工智能_模子
"加利福尼亚州斯坦福大学研究人工智能社会影响的里希-博马萨尼(Rishi Bommasani)说:"就我们如何看待人工智能监管和首创先例而言,该法案影响巨大。
这项立法是在人工智能飞速发展的背景下出台的。估量今年将推出新版本的天生式人工智能模型,如加州旧金山 OpenAI 公司开拓的 GPT,它为 ChatGPT 供应了动力,而现有的系统正被用于诱骗和传播缺点信息。中国已经利用了一系列法律来辅导人工智能的商业运用,美国的监管也在进行之中。去年 10 月,乔-拜登总统签署了美国首个人工智能行政命令,哀求联邦机构采纳行动管理人工智能风险。
欧盟各国政府于 2 月 2 日批准了这一立法,该法律现在须要欧盟三大立法机构之一的欧洲议会的终极签署;估量这将在 4 月份实现。如果文本保持不变,正如政策不雅观察者所预期的那样,该法将于 2026 年生效。
一些研究职员对该法鼓励开放科学的潜力表示欢迎,而另一些人则担心它会扼杀创新。《自然》杂志将磋商该法将如何影响科研事情。
欧盟的做法是什么?
欧盟选择根据人工智能模型的潜在风险对其进行监管,对风险较高的运用适用更严格的规则,并对具有广泛和不可预测用场的通用人工智能模型(如 GPT)制订单独的法规。
该法禁止利用具有 "不可接管风险 "的人工智能系统,例如利用生物识别数据推断敏感特色(如性取向)的系统。高风险运用,如在招聘和司法中利用人工智能,必须履行一定的责任;例如,开拓者必须证明他们的模型是安全的、透明的、可向用户阐明的,并且遵守隐私法规,不存在歧视。对付风险较低的人工智能工具,开拓者仍需奉告用户何时与人工智能天生的内容进行交互。该法律适用于在欧盟运营的模型,任何违反规定的公司都有可能被处以高达其环球年利润 7% 的罚款。
"意大利米兰博科尼大学(Bocconi University)打算机科学家德克-霍维(Dirk Hovy)说:"我认为这是一个好办法。他说,人工智能已迅速变得强大且无处不在。"建立一个框架来辅导其利用和发展是绝对故意义的"。
总部位于柏林的非营利组织 "算法不雅观察"(AlgorithmWatch)是一家研究自动化对社会影响的机构,该组织的政治学家基利安-维特-迪特曼(Kilian Vieth-Ditlmann)说,有些人认为这些法律走得不足远,为军事和国家安全目的的豁免留下了 "缺口",也为人工智能在司法和移民中的利用留下了漏洞。
它对研究职员的影响有多大?
理论上,影响很小。去年,欧洲议会在法案草案中增加了一项条款,规定纯粹为研究、开拓或原型设计而开拓的人工智能模型可以免责。柏林赫蒂学院(Hertie School)研究人工智能及其监管的乔安娜-布赖森(Joanna Bryson)说,欧盟一贯在努力确保该法案不会对研究产生负面影响。"他们真的不想割断创新,以是如果这会成为一个问题,我会感到非常震荡。"
霍维说,但该法案仍有可能产生影响,它将匆匆使研究职员思考透明度、如何报告他们的模型以及潜在的偏见。"他说:"我认为这将渗透下去,促进良好做法的形成。
德国慕尼黑工业大学的年夜夫、旨在实现机器学习民主化的非营利组织LAION(大规模人工智能开放网络)的联合创始人罗伯特-卡茨马尔奇克(Robert Kaczmarczyk)担心,这项法律可能会阻碍推动研究的小公司,它们可能须要建立内部构造来遵守法律。"他说:"作为一家小公司,适应法律确实很难。
这对 GPT 等功能强大的模型意味着什么?
经由激烈的谈论,政策制订者选择将功能强大的通用模型--如创建图像、代码和***的天生模型--纳入自己的两级种别进行监管。
第一层涵盖所有通用模型,但仅用于研究或根据开源容许发布的模型除外。这些模型将受到透明度哀求的约束,包括详细解释其演习方法和能源花费,并且必须表明它们尊重版权法。
第二层更为严格,将涵盖被认为具有 "高影响能力 "的通用模型,它们会带来更高的 "系统性风险"。博马萨尼说,这些模型将承担 "一些相称主要的责任",包括严格的安全测试和网络安全检讨。开拓者将被哀求公布其架构和数据源的详细信息。
对欧盟来说,"大 "实际上等同于危险:任何在演习中利用超过 1025 FLOPs(打算机运算次数)的模型都属于高影响模型。Bommasani 说,用如此大的打算能力来演习一个模型须要花费 5000 万到 1 亿美元,因此这是一个很高的标准。它该当包括 OpenAI 当前的模型 GPT-4 等模型,也可能包括 Meta 的开源竞争对手 LLaMA 的未来迭代。这一级别的开源模型都要接管监管,不过纯研究模型可以免于监管。
一些科学家反对对人工智能模型进行监管,他们更乐意关注如何利用这些模型。"德国尤里希超级打算中央(Jülich Supercomputing Centre)的人工智能研究员、LAION 的另一位联合创始人杰尼亚-吉采夫(Jenia Jitsev)说:"更聪明、能力更强并不虞味着危害更大。Jitsev 补充说,以任何能力衡量标准作为监管依据都没有科学依据。他们打了个比方,把利用一定人时的化学都定义为危险化学。"这样做毫无益处"。
该法案会支持开源人工智能吗?
欧盟政策制订者和开源倡导者希望如此。霍维说,该法案鼓励人工智能信息的可用性、可复制性和透明性,这险些就像是 "宣读开源运动的宣言"。博马萨尼说,有些模式比其他模式更开放,目前还不清楚该法案的措辞将如何阐明。但他认为,立法者故意将通用模型(如 LLaMA-2 和巴黎初创公司 Mistral AI 的模型)打消在外。
Bommasani 说,欧盟鼓励开源人工智能的做法与美国的策略明显不同。"欧盟的思路是,开源对付欧盟与美国和中国竞争至关主要。"
如何实行该法案?
欧盟委员会将成立一个人工智能办公室,在独立专家的建议下监督通用模型。该办公室将制订评估这些模型能力和监控干系风险的方法。但是,纵然像 OpenAI 这样的公司遵守了干系规定并提交了弘大的数据集等资料,Jitsev 也质疑公共机构是否有足够的资源对提交的资料进行审查。"透明化的哀求非常主要,"他们说。"但对付如何实行这些程序却很少考虑"。
doi: https://doi.org/10.1038/d41586-024-00497-8
本文系作者个人观点,不代表本站立场,转载请注明出处!