人工智能通用大模型横空出世,全天下看到了AIGC(人工智能天生内容)的强大。
与此同时,AIGC的可信度、隐私保护、伦理等问题亦引发空前争议。

系好“安然带”生成式人工智能才会更好成长_人工智能_内容 智能写作

我国有关部门快速反应。
4月11日,国家互联网信息办公室发布《天生式人工智能做事管理办法(搜聚见地稿)》(以下简称《管理办法》),提出二十一条举措。
业界认为,这是海内首次明确针对天生式人工智能做事搜聚管理见地,将有利于推动AIGC家当康健稳定发展。

AIGC负面影响显现,行业亟待规范

当前,人工智能越来越多地被运用于文本、图像、***等天生事情,成为继专业天生内容(PGC)、用户天生内容(UGC)后的新型内容生产办法(AIGC)。

然而从AIGC走进"大众年夜众视线的那一刻起,各类争议就一贯环绕着它。

版权之争首当其冲。
2023年初,商业图库Getty Image多次指控AI公司Stability AI未经授权复制和利用其图库中逾1200万幅受版权保护的图片,用以演习其AI图像天生模型。
《华尔街日报》也表示美国***集团正准备向OpenAI、微软和谷歌等公司提起诉讼,哀求AI工具在演习中对利用其内容的部分进行用度补偿。

数据安全、隐私安全等问题也随之而来。
据韩国媒体宣布,三星内部已先后发生三起误用滥用ChatGPT案例,包括两起“设备信息透露”和一起“会议内容透露”,涉及半导体设备丈量资料、产品良率等机密内容。
而摩根大通、软银等企业已经开始限定员工在事情场合利用ChatGPT。

更有人利用AIGC强大的内容天生能力假造信息,多次引发热议。
比如近日广州一女子在地铁上的照片被他人利用AI技能“一键脱衣”,虚假图片在网络广泛传播;某男网红利用“AI换脸”技能,更换掉电视剧中的男主角头像,制作自己与女明星亲吻的画面;今年2月,有人用ChatGPT写了一条“杭州市政府将取消机动车尾号限行政策”的假***,让不少人信以为真……

多国已对ChatGPT展开调查。
4月初,意大利个人数据保护局宣告禁止利用谈天机器人ChatGPT,限定其开拓公司OpenAI处理意大利用户信息,并开始备案调查。
加拿大联邦隐私监管机构也宣告对OpenAI展开调查,因其涉嫌“未经赞许网络、利用和表露个人信息”。
德国联邦数据保护专员也表示,考虑数据安全,不用除封禁ChatGPT。

AI发展正在加速,AI管理也须要提速。
多位业内专家对公民网表示,我国这次出台《管理办法》非常及时,如此详细的管理规定在环球范围内也很鲜见。

中国信息经济学会副理事长、广州大学网络空间安全学院教授齐佳音说,《管理办法》的发布间隔OpenAI发布ChatGPT环球公测仅仅过去四个月,有可能成为国际上第一部规制天生式人工智能的规章制度,表示了我国在人工智能管理领域的敏捷反应能力,对付规范和促进AIGC的发展无疑具有主要的引领浸染。
它将为环球的AIGC监管供应模版,有助于加快人工智能管理制度培植,推动AIGC家当规范有序发展。

强调安全,是为了更好地促进发展

业内专家认为,《管理办法》强调权柄保护,紧张戒备滥用行为。
一方面是戒备平台滥用人工智能技能手段侵害用户隐私,另一方面是戒备用户滥用天生式人工智能侵害他人权柄。

公民网董事长、总裁,传播内容认知全国重点实验室主任叶蓁蓁认为,主管部门出台《管理办法》并非要限定人工智能发展,而是通过规章制度来“系好安全带”,加快发展、更好发展。
他强调:“在统筹发展与安全的问题上,不发展才是最不屈安。

我国高度重视人工智能技能发展,将其视为一项驱动科技创新、家当升级和生产力提升的计策性新兴技能。
近年来,有关部门陆续发布《新一代人工智能发展方案》《促进新一代人工智能家当发展三年行动操持》《关于加快场景创新 以人工智能高水平运用促进经济高质量发展的辅导见地》《关于支持培植新一代人工智能示范运用处景的关照》等多个政策文件,为人工智能核心技能攻关、产品落地运用以及探索发展新模式新路径供应了主要辅导。

在今年的全国两会上,科技部干系卖力人亦专门强调,“将把人工智能作为计策性新兴家当和新增长引擎”,在推动人工智能根本研究、运用推广、开放互助等方面连续给予大力支持,并同时推动建立人工智能安全可控的管理体系。

齐佳音指出,这次公布的《管理办法》为AIGC的研发和运用划出了底线和红线,即供应天生式人工智能产品或做事应该遵守法律法规的哀求,尊重社会公德、公序良俗。
同时,明确了AIGC的“供应者”对研发和运用负有任务,即利用天生式人工智能产品供应谈天和文本、图像、声音天生等做事的组织和个人须要对包括产品运用、安全评估、算法合法性、数据合法性等承担任务。
此外,《管理办法》还为AIGC的研发和运用供应了纠偏机制,包括持续优化纠偏、AIGC标识提示、可审查机制、监管勾引机制、终止做事机制和惩戒惩罚机制。

“《管理办法》为AIGC的研发和运用第一次立了规矩,使得AIGC的研发和运用有了规制框架,对付规范和勾引这一领域的发展具有十分主要的积极浸染。
”齐佳音说。

专家呼吁进一步重视潜在风险

把稳到,这次《管理办法》也对一些可能涌现的衍生问题提出戒备举措,如哀求利用天生式人工智能天生的内容“应该表示社会主义核心代价不雅观”、防止各种歧视、“不得利用算法、数据、平台等上风履行不公正竞争”“采纳方法防止天生虚假信息”“防止侵害他人身心康健”等。

“这一点非常值得关注。
”齐佳音阐明说,以ChatGPT为例,其具有强大的类人化自学习能力和交互式笔墨处理能力,自动化措辞天生带有强烈的类人化措辞风格,这让ChatGPT有可能摆脱单一的技能身份而拥有了类人化社会角色,成为深度参与和参与社会关系的“代理”。
如果不加以限定,AIGC带来的“人-机”社会互动将有可能代替真实的“人-人”社会交往,成为滋扰人类真实社会关系的核心要素,这将带来技能的异化和人的异化,是必须要加以戒备的。

叶蓁蓁指出,AI平台是有态度的,AI天生的内容是有导向的,所谓“技能中性”是不存在的。
因此,无论是喂养人工智能的语料数据,还是模型本身的算法,都必须高度关注其政治方向、舆论导向和代价取向问题。
不能放任AI分开人类视野,不能忽略AIGC“天生即传播”特性的潜在风险,要积极探索AI运用和管理之道。

在AIGC代价不雅观培养方面,清华大学教授沈阳建议:该当有更多“人的参与”。
个中关键是要为大措辞模型供应更多的阐明性,这对付改动AI的代价不雅观偏见以及知识成见非常主要。

据理解,目前公民日报社主管、依托公民网培植的传播内容认知全国重点实验室已初步建立了AI意识形态风险评测体系。
该体系就采取了人机协作的办法进行测评。

为从源头上防止“技能脱轨”,在制度培植方面,4月4日,科技部在《科技伦理审查办法(试行)》搜聚见地公告中提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。

沈阳表示,每一个AIGC平台都应设有伦理审查委员会,以确保其在发生大规模呈现时,符合法律道德和伦理规则。
“我们现在对付演习师、生理师、伦理师、提示师的重视程度还不足,须要进一步提升。

齐佳音指出,随着技能的快速发展,干系规章制须要持续优化,建议后续进一步推出AIGC安全评估规范和管理流程规范。

“应健全研发、审核、运用与安全等多维标准规范体系,完善AIGC技能创新生态。
”传播内容认知全国重点实验室科技发展部主任杨松建议,应加快构建国家顶层方案、龙头企业牵头、高校科研机构共同支撑的创新链家当链领悟体系,完善数据共享机制,大力推动数据资源汇聚。