与此同时,人们对人工智能的担忧也悄悄累积。
它会不会误传假?我们的事情还安全吗?它会不会在未来某一天,溘然宣告“你的事情,我来做”?或者更让民气悸的,它会不会变得聪明到超越人类,成为地球上的新霸主?如何给这位“超级英雄”制订规则,设定边界,确保它为人类做事而非反其道而行之,已经成为环球范围内的热门议题。

未来可期|人工智能时代:为何强监管是关键?_人工智能_技巧 文字写作

2023年6月12日,联合国秘书长古特雷斯表示,相应一些人工智能行业高管的发起,成立一个像国际原子能机构的国际人工智能监管机构。
此外,他还透露,操持在今年年底前启动一个高等人工智能咨询机构,定期评估人工智能的管理方法,并就如何使人工智能与人权、法治和人类的共同利益保持同等提出建议。

2023年7月6日,2023天下人工智能大会(简称WAIC)在上海开幕。
在开幕式上,特斯拉首席实行官埃隆·马斯克揭橥***讲话:“我们须要一些监管方法对人工智能进行监督。
考虑到深度人工智能所可能展现出的超越人类的能力,它可能引领我们进入一个积极的未来,也有可能导致某些不太乐不雅观的结果。
我们的目标该当是确保走向那个光明的未来。

2023年9月13日,美国参议院多数党魁脑查尔斯·舒默(Charles Schumer)主持召开头届“人工智能洞察论坛”,科技界领袖们应邀参加。
这场为期一天的闭门会议的核心议题是:如何为日益强大的人工智能技能制订法规,确保人类能够掌控这项技能,而不是被它掌控。

当你看到参会者名单时,你可能会为他们的实力而震荡:特斯拉的埃隆·马斯克、Meta的马克·扎克伯格、Alphabet的桑达尔·皮查伊、Open AI的萨姆·阿尔特曼、英伟达的黄仁勋、微软现任首席实行官萨蒂亚·纳德拉和前首席实行官比尔·盖茨,还有IBM的阿文德·克里希纳。
这群科技巨子的总身价已经靠近5500亿美元,这是一个惊人的数字,大约相称于4万亿元公民币。

会议结束后,舒默向在场的分享了一个不雅观察:当他提及“政府是否该当在人工智能的监管中扮演角色”这一问题时,场中的每一个人都举起了手(表示赞许)。
只管他们的详细不雅观点有所不同,但对付监管的必要性,已经形成普遍共识。

通过上述几则***,我们可以创造,对人工智能进行必要的监管,无论是政治家、科学家,还是企业家,大家都有了共鸣。
人工智能的进步在为我们带来诸多便利的同时,也带来了前所未有的寻衅。
只有通过明确的规范和辅导,我们才能确保这一技能走向成熟,而不是失落控;确保人工智能真正为人类的未来做事,而不是对其构成威胁。
那么,人工智能目前到底存在哪些问题呢?

2023年2月16日,有身8个月的32岁美国女子Porcha Woodruff,遭到了一个意想不到的打击,她被人脸识别技能缺点地标记为犯罪嫌疑人。
那天清晨,当Porcha正忙于送孩子上学时,6名警察溘然涌如今她家门口。
他们手持逮捕令,指控Porcha涉及一宗抢劫案。
这发难宜始于一个月前,当时一名受害人向警方报告了抢劫案件。
为了查找嫌疑人,警方利用了人脸识别技能剖析了干系的监控录像。
结果,系统供应的6张疑似嫌疑人的照片中包括了Porcha Woodruff,更不幸的是,受害者缺点地确认了她。
Porcha不甘于这一荒诞的误判,她选择起诉底特律警局,并终极成功为自己舒展正义。
这得益于她当时的身孕状况,可以证明她不可能是这起案件的真正罪犯。

上述这个案例,揭示的便是人工智能存在的偏见与歧视问题。
人工智能很大程度上依赖数据来学习和作出判断。
但如果演习数据本身存在偏见,那么算法模型可能会放大这种偏见,比如种族和性别歧视。
以人脸识别技能为例,一些系统在识别非白种人面孔时涌现了问题,由于演习数据紧张基于白种人的面部数据。

Porcha Woodruff事宜只是人工智能带来的诸多问题中的一个。
在信息传播方面,人工智能存在的问题,是“人工智能幻觉”(AI hallucination)和深度假造(Deepfake)技能。
Deepfake是英文“deep learning”(深度学习)和“fake”(假造)的混成词。

以ChatGPT为代表的大模型的一个明显缺陷,是人工智能幻觉,有时它会不苟言笑地胡说八道。
它总能就用户提出的问题或要求,作出“信誓旦旦”的答复。
但用户必须当心,这可能是天生式人工智能(AIGC)为了媚谄你而说出的“谎话”。
有宣布称,当讯问一个大模型关于历史事宜的详情时,它可能会添加一些不真实或夸年夜的细节。

6月22日,美国纽约联邦法官作出一项讯断,Levidow,Levidow&Oberman状师事务所引用了ChatGPT撰写的一份由虚假案例引证的法庭简报,行为恶劣,对其处以罚款5000美元。
受到处罚的状师事后表示,他反复讯问ChatGPT那几起不存在的案例是否是真的,而ChatGPT给出肯定的回答,还称可以在多个法律资料库找到。

除了胡说八道,被人诟病的还有深度假造技能。
2023年1月,环球第一部利用深度假造技能,实现人工智能合成名人面孔的节目——《深度假造邻居之战》(Deep Fake Neighbor Wars),在英国电视公司ITV的流媒体平台上线。
在这部没有明星实际出演的笑剧中,一群在替人演员根本上由人工智能合成的“名人”成了邻居,在一起插科打诨。

今年早些时候,当美国前总统特朗普在纽约接管审查时,社交媒体上充斥着许多由人工智能天生的假造图像,彷佛显示他与警察发生肢体冲突。
如果这种技能被用来假造政治家或"大众年夜世人物的辞吐或行为***,那么可能给他们的荣誉带来深远的负面影响。
在此背景下,我们不得不思考:当名人的面孔被人工智能技能合成利用时,他们能否主见其肖像权受到陵犯?他们是否有权得到相应的报酬?制作这类内容的节目或平台需承担何种法律任务?对付这种技能天生的内容,政府有没有干系的监管方法?

另一个关键问题,是人工智能决策的透明度和可阐明性。
众所周知,许多深度学习模型因其繁芜性而被视为“黑箱”。
这意味着,只管这些模型在各种任务上展现出了惊人的准确率,但其内部事情事理和决策机制每每对算法开拓者自己都显得难以捉摸。
例如,当某人工智能系统谢绝某人的贷款申请时,我们如何确定它是基于客不雅观的信用评分、收入资料,还是其他不那么明确的成分作出的判断?这种不透明性可能导致决策偏见,并在某些情形下产生不公道的结果。

此外,当人们依赖某家企业供应的算法模型作决策,如果由于模型的不准确性导致的失落误引发了经济丢失或其他负面影响,那我们不得不思考:是模型还是利用者答允担任务?或者说,企业是否有责任在供应模型时明确其可能的风险和局限性?

在医疗领域,当人工智能医疗系统为年夜夫供应疾病诊断建议时,年夜夫每每会思考这些建议的来源以及其背后的数据和推理逻辑。
这不仅是年夜夫的问题,也是患者的问题,由于在关乎康健,乃至生命的主要决策中,信赖是关键。
但是,如果人工智能模型的事情办法像一个“黑箱”,那么如何确保我们不被其可能存在的误导性输出所欺骗呢?当我们开始过度依赖机器作出关键的医疗决策时,我们就面临失落控的风险,谁敢担保这个别系每一次都能作出精确决定?

隐私透露也是一个日益突出的问题。
为了供应个性化的做事或优化其模型,浩瀚公司不惜采集大量的用户数据。
但随之而来的是这些敏感数据可能面临被造孽盗取或被不当利用的风险。
据此前媒体曝光,5000万脸书(Facebook)用户的信息,在用户不知情的情形下,被剑桥剖析公司违规滥用。
这家公司据此向目标用户投放了高度定制的政治广告,旨在2016年美国总统大选中为特朗普的竞选团队拉票。
这发难宜凸显了我们在数字时期中面临的隐私寻衅和企业利用数据的道德界线。

这些问题仅仅是冰山之尖。
随着技能进步的脚步,我们可能会面临更多尚未预见的寻衅和困境。
为应对这些情形,各国正在加强监管力度,不断探索有效的应对策略和前瞻性的办理之道。

早在2021年9月25日,中国国家新一代人工智能管理专业委员会就发布了《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,为从事人工智能干系活动的自然人、法人和其他干系机构等供应伦理指引。
这里面的第12条,提到了增强安全透明。
在算法设计、实现、运用等环节,提升透明性、可阐明性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗滋扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第13条提到了避免偏见歧视。
在数据采集和算法开拓中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公正性和非歧视性。

从2021年,中国陆续发布三部主要的部门规章:《互联网信息做事算法推举管理规定》、《互联网信息做事深度合成管理规定》和《天生式人工智能做事管理暂行办法》,从算法、深度假造、天生式人工智能等方面对干系技能的发布者提出监管哀求。

这三部规范,也确立了中国将采纳“原谅谨严的分类分级监管”原则。
有关主管部门针对天生式人工智能技能特点及其在有关行业和领域的做事运用,将制订相应的分类分级监管规则或者指引。

欧盟的人工智能监管路径,主见“以人为本(human-centric)”,在促进人工智能发展与创新的同时,构建监管体系以戒备风险、保护公民基本权利和安全。
2022年12月15日,欧盟委员会主席、欧洲议会和理事会主席共同签署并发布了《欧洲数字权利和原则宣言》。
《宣言》强调人工智能该当是人类的工具,终极目的是匆匆进人类福祉。
每个人都有权从算法和人工智能系统的上风中受益,包括在数字环境中做出自己的知情选择,同时保护自己的康健、安全和基本权利免受风险和危害。

《宣言》哀求技能公司承诺培植以人为本、值得相信和合乎道德的人工智能系统。
这须要他们做到“六个确保”。

1.确保在利用算法和人工智能方面有足够的透明度。

2.确保人们有能力利用它们,并在与它们互动时得到信息。

3.确保算法系统基于足够的数据集,以避免歧视,并使人们能够监督影响人们的所有结果。

4.确保人工智能等技能不被用来打劫人们的选择,例如,在康健、教诲、就业和其他方面。

5.确保人工智能和数字系统在任何时候都是安全的,并在利用时充分尊重基本权利。

6.确保人工智能的研究尊重最高的道德标准和干系的欧盟法律。

美国则主见,监管的核心目标应该是促进人工智能的负任务创新(responsible innovation)。
为实现此目标,美国认为应通过一系列的监管和非监管方法,最大限度地减少对人工智能开拓和支配的不必要制约。
2022年10月,美国白宫发布了《人工智能权利法案蓝图》,列出了五项核心原则,提出负任务地利用人工智能路线图。
该综合文件为辅导和管理人工智能系统的有效开拓与履行供应了方向,个中尤其强调了戒备对公民权利和人权的潜在陵犯。

至于详细的监管架构,美国目前并没有设立专门针对人工智能的独立监管机构。
而是采纳了部门分工的办法,让各个领域的主管部门在其职责范围内对人工智能进行干系的管理和监督。
以此为例,美国食品药品管理局(FDA)卖力医疗领域的人工智能产品,而美国交通部则对自动驾驶汽车的人工智能技能进行监管。

日本对人工智能的管理,提出了“以人为本的人工智能社会原则”。
该原则包括以人为本、教诲、隐私保护、确保安全、公正竞争、公正、问责制和透明度、创新七个原则。
然而,日本并没有纯挚选择政府为唯一主导的传统管理办法来设定、监督和实行人工智能的干系规则。
相反,他们选择了一种被称为“敏捷管理”(agile governance)的模式,鼓励多个利益干系方共同参与和决策。
在这种管理框架下,政府、企业、公众年夜众及社区等多方共同剖析当前社会环境,明确意图实现的目标,制订策略以实现这些目标,并持续地评估与优化已履行的方法。

随着人工智能技能的深入渗透,我们共同认识到了其带来的巨大潜力与同样突出的风险,从人工智能幻觉到深度假造,从隐私透露到决策的透明性,这些问题都让我们反思与警视。
值得欣慰的是,环球对付强化人工智能的监管达成了共识。
各国纷纭挥笔立法,以期为这一技能巨兽划定明确的边界,确保它为人类的未来发展供应助力,而不是成为威胁。

我们有情由相信,人类将能够勾引这场科技革命走向更加通亮、公道和有益的未来。
正如人类曾成功地驾驭蒸汽机、电力和互联网,我们同样有能力确保人工智能成为下一个改变历史的、有益的工具。

(作者胡逸,一个喜好畅想未来的大数据事情者。
“未来可期”是胡逸在澎湃科技开设的独家专栏。