光明日报 杨逸夫

应对人工智能技能滥用合作才是未来_人工智能_美国 科技快讯

近年来,人工智能(AI)技能的更迭让人目不暇接。
措辞模型领域取得重大打破的2023年刚刚过去,2024年,人们又迎来了***和物理天下虚拟天生方面的打破。
然而,在人工智能技能被广泛运用于科创、文化、教诲、医药、交通等各行各业,乃至进入日常生活确当下,其被滥用的风险已开始引发担忧。

2月26日,人们在西班牙巴塞罗那举行的2024年天下移动通信大会上体验设备。
新华社发

“深度假造”真假难辨

利用人工智能算法天生的高度逼真的虚假图像、音频和***等,被称为“深度假造”内容。
自这一观点于2017岁首年月次涌现以来,借助该技能诱骗或操纵舆论的事宜在环球愈加频发。
以美国为例,过去一年里人工智能诱骗事宜同比增幅超过了50%。

然而时至今日,人们仍未能有效办理该问题。
这是由于,人工智能造假能力的进步速率远远超过了信息识伪技能的开拓速率。
如今,任何人都可以快速地、低成本地天生难辨真假的图像、音频乃至***,而且难以追踪。
与之相反,识伪技能则因在主题和软件方面具有特异性,难以得到遍及。
此外,核查事实须要花费更多韶光精力。
据日本瑞穗研究所及技能公司的调查,70%的日本受访者认为互联网上的信息很难判断真假,但只有26%的受访者表示在打仗可疑信息后会进行某种程度的验证。

今年年初,天下经济论坛发布《2024年环球风险报告》,将人工智能天生的缺点信息和虚假信息列为“未来两年环球十大风险”之首,担心其会使本就两极分解、冲突频发的环球形势进一步恶化。
考虑到2024年是环球“大选年”,70多个国家或地区将举行主要选举,人们担忧人工智能会被武器化,被用来误导选民、诋毁候选人,乃至鞭策暴力、仇恨和胆怯主义。

“2024年的美国大选将涌现人工智能天生的虚假信息海啸。
”正如美国布鲁金斯学会技能创新中央高等研究员达雷尔·韦斯特所言,美国大选刚刚迎来初选阶段,就已经有人试取利用“深度假造”操控选民了。
今年1月,美国民主党初选在新罕布什尔州举行,很多选民表示在初选前接到了“来自美国总统拜登的电话”,电话里“拜登”建议选民不要参与初选,该当把选票留到11月大选时投给民主党。
这则电话实际上是拜登竞争对手迪安·菲利普斯的政治顾问克雷默安排的。
他利用人工智能仿照了拜登的声音,并拨给了最有可能受影响的选民。
克雷默乃至直言:“只须要500美元,任何人都可以再现我的行为。

业内人士担心,“深度假造”内容的泛滥会让公众完备失落去对自身感官的信赖,真实信息也同样会遭到更多质疑。
比如2016年,特朗普曾极力流传宣传与其有关的一份丑闻录音是捏造的。
若此事发生在当下,他的诡辩可能更具说服力。

类似的问题已在环球多国涌现,然而技能的发展走在了各国的法律和行业规范之前,目前不得不更多依赖科技公司的“自我监管”来办理问题。
在2月举行的第60届慕尼黑安全会议期间,环球多家科技企业签署协议,承诺将共同努力打击旨在滋扰选举的人工智能滥用行为,包括开拓识伪工具,同时在天生图像上添加“非现实内容”标签及电子水印以明确其来源。
部分企业还在考虑禁止政治候选人图像的天生。
然而,有媒体认为上述协议仅勾勒出一些最基本的原则,并没有写明企业履行承诺的详细方法及时间表,空洞的集体表态更像是一场公关活动。
更何况,科技公司对其人工智能产品进行主不雅观调控,是否意味着会将公司的代价不雅观强加给用户,这也是一个问题。

此外,电子水印技能尚存在不敷。
比如,“内容来源和真实性同盟”供应的水印只能被用于静止图像,而且“很随意马虎被意外或故意删除”。
因此,从源头掌握虚假信息天生的难度、限定虚假信息在社交媒体的传播以及培养"大众年夜众的批驳性思维等,仍是各国办理“深度假造”问题时不得不面对的难点。

“AI战役”的阴影

只管公众年夜众对人工智能兴趣大增紧张是由于天生式人工智能的发展,但多国军方早已将把稳力投向了人工智能技能在沙场上的运用,尤其是能够进行深度学习的自主武器系统。
美国计策界把人工智能的发展与历史上核武器的涌现相类比,美有名科技企业家埃隆·马斯克也认为,人工智能技能的扩散已让各国企业可以“在自家后院制造核弹”。

在当前环球最受关注的两场冲突中都能看到人工智能的运用。
美《时期》周刊近日刊文将俄乌冲突称为“第一场人工智能战役”,表露美国科技公司帕兰蒂尔向乌克兰供应人工智能软件,通过剖析卫星图像、无人机画面等情报供应打击敌军的最有效目标,并根据每次打击进行学习和改进。
宣布称,这些“人工智能军火商”俨然把乌克兰当作了其最新科技的最佳实验场。

在巴以冲突中,以色列军队已将人工智能技能用于摧毁无人机、绘制隧道网络舆图,以及推举打击目标。
据宣布,名为“福音”的人工智能系统让以军探求攻击目标的效率提升了几百倍。
不少媒体担心这可能意味着系统不仅锁定了军事举动步伐,也在轰炸平民住所,“人工智能可能正被用于决定加沙居民的死活”。

而早在2020年就首次实验人工智能目标识别的美国,最近也广泛利用该技能定位也门的火箭发射装置、红海的水面舰艇,以及伊拉克和叙利亚的打击目标。

据美媒宣布,美国军方还不断加强与OpenAI等领先企业的互助。
2023年8月,天生式人工智能的浪潮掀起不久,美国防部数字和人工智能首席办公室便迅速成立“天生式人工智能事情组”。
今年1月,OpenAI悄无声息地更新了其“利用政策”页面,删除了个中对“军事和战役”运用的限定,将条款改为更模糊的“禁止利用产品开拓或利用武器”。
不久后,该公司承认正与五角大楼互助开展包括研发网络安全工具在内的多个项目。
近日,美国防部高等官员再次约请美科技企业参加秘密会议,希望加速探索和履行人工智能的军事运用。

干系专家认为,人类在几十年间成功遏止核武器利用,靠的是各国间的计策折衷。
目前环球缺少人工智能军事运用的国际管理框架,极易因技能失落控导致冲突升级或引发武备竞赛,急迫须要尽快达成多边共识。
联合国秘书长古特雷斯此前强调,联合国必须在2026年前达成具有法律约束力的协议,禁止在自动化战役武器中利用人工智能。

国际折衷互助不可或缺

人工智能同时具有正反两方面的巨大潜能,需及时采纳方法戒备风险。
2016年以来,各国陆续发布干系政策法规,但进展仍赶不上技能的进步。
去年10月,拜登签署美国首项人工智能监管行政令,为人工智能建立安全和隐私保护标准,但被指缺少逼迫实行效能。
欧盟方面,虽然欧洲议会于3月13日通过《人工智能法案》,但是法案中的干系条款将分阶段履行,部分规则要到2025年才生效。
日本执政党自民党直到最近才宣告操持在年内发起政府引入天生式人工智能立法。

无论是天生式人工智能带来的虚假信息问题,还是人工智能军事运用的风险,其影响都是超过国界的。
因此,人工智能的监管和管理应通过国际互助来办理,各国应共同做好风险戒备,携手共建具有广泛共识的人工智能管理框架和标准规范。

然而遗憾的是,美国不仅从一开始就把中国的人工智能发展操持当作敌对行为,在布局人工智能军事运用时把中国视为假想敌,而且为了坚持技能上风,长期阻碍中国技能进步。
据宣布,美政府不仅禁止美国企业对华出口处理能力最强的人工智能芯片,还哀求美国云打算公司表露在其平台上开拓人工智能运用程序的外国客户姓名,试图借此阻断中国企业访问数据中央和做事器。

人工智能的发展管理攸关全人类命运,须要群策群力、折衷应对。
在人工智能领域搞“小院高墙”只会削弱人类共同应对风险寻衅的能力。
美国应切实尊重科技发展的客不雅观规律,尊重市场经济和公正竞争原则,停滞恶意阻挡他国技能发展,为加强人工智能领域的国际折衷互助创造良好条件。

《光明日报》(2024年03月17日 08版)

来源: 光明网-《光明日报》