11月1日至2日,首届人工智能安全峰会在英国布莱奇利园举行。
美国、英国、欧盟、中国、印度等近30个国家和地区代表就人工智能技能快速发展带来的风险与机遇展开谈论。
峰会发布的《布莱奇利宣言》指出,人工智能的许多风险实质上是国际性的,因此“最好通过国际互助来办理”。

美军方鹰派:人工智能已经处于战役状态_人工智能_美国 智能写作

宣言并没有指出详细的互助路线图。
但值得肯定的是,这是国际社会共同商榷人工智能技能发展与运用的一个好的起步。
对付各国该当采纳何种应对举措,今年已有智库学者呼吁中美等大国互助,共同监管AI(详见《美智库:中美该当互助监管AI》)。
就在英国人工智能安全峰会举办之际,曾于2009年到2012年担当美国国防部国防政策次长的米歇尔·弗洛诺伊(Michèle Flournoy)在《外交事务》杂志发文,谈及了人工智能对美国国防和情报事情及战役模式带来的“变革”。
她呼吁美国加大对人工智能的研发和在军队中的运用,以节制超越对手的上风地位。

弗洛诺伊曾是拜登优先考虑的国防部长人选,但由于她和军工企业关系过密,以及她曾在美国政府在利比亚和中东的军事干预中担当过的职务,遭到民主党内进步势力的反对。
鉴于她和克林顿、奥巴马两届民主党政府的人脉关系,希拉里当年也曾操持在胜选后提名她担当首位女防长。
她的职业生涯表示了美国政府、智库与企业之间范例“旋转门”经历。
她曾加入智库“计策与国际问题研究中央”,并帮忙创办守旧智库“新美国安全中央”(CNAS)。
两家机构都吸收过军工企业的大量帮助。
2012年从奥巴马政府离职后,弗洛诺伊又加入军工互助企业“波士顿咨询集团”。
2017年,弗洛诺伊参与创办了政治计策咨询公司WestExec Advisors,帮助军工企业向五角大楼推销订单。

她在美国军事政策圈有很大的影响力,被视为“超级鹰派”,主见通过军事手段强力干涉中国台海和南海事务。
在人工智能领域,她的见地以掩护美国的军事霸权地位为出发点,认为人工智能已经引发一场安全革命,美国必须加速发展人工智能,并积极招揽精良人才。
同时她也希望美国在AI研发方面做好“护栏”,平衡好AI速率与安全的关系以及伦理道德和任务方面的哀求。
比如,她主见五角大楼禁止在核武器指挥掌握系统中利用人工智能,并敦促其他核大国也这样做。
她也希望美国与中国谈论人工智能。

一些研究职员担心人工智能的危险,呼吁停息发展AI。
但是,弗洛诺伊认为,阻挡美国人工智能的进步是不可能的:人工智能的数学根本无处不在,创造人工智能模型的人类技能已广泛扩散,驱动人工智能研发的人类创造力和商业收益亦非常强大。
试图阻挡AI进步也是一个缺点。
她在文章中提到,中国正在努力在人工智能方面超越美国,特殊是在军事运用方面。
如果成功,中国将拥有一支更强大的军队,其行动能力、速率和效果,都有可能超过美国。
中国利用网络和电子战对抗美国网络和关键根本举动步伐的能力也将增强。
简而言之,五角大楼须要加速支配负任务的人工智能。
如果不这样做,华盛顿可能会失落去保障美国利益、盟友和伙伴安全以及基于规则的国际秩序的军事上风。

以下是她文章的紧张内容。

----

2002年,一支特殊行动小组练习突袭一处胆怯分子藏身之所。
小组悄悄靠近一座专门为军事演习而建筑的两层楼,里面藏着一个虚构的胆怯分子头目。
一绅士兵小心翼翼地走近一扇开着的窗户前,扔进一架由人工智能驾驶的小型无人机。
这架人工智能无人机开始在大楼里自动翱翔,一个房间接一个房间,将摄像头拍摄的画面直接传送到表面指挥官的手持平板电脑上。
在短短几分钟内,该小组就对大楼内部的情形有了全面的理解,知道哪些房间是空的,哪些房间有家庭成员正在睡觉,以及头号目标所处位置。
行动小组进入大楼时知道详细的行动路线,减少了每个成员面临的风险。
这次练习很成功:如果是真的,这支军队早就杀去世胆怯分子头目了。

这架由人工智能驾驶的四轴翱翔器由Shield AI设计,后来被用于实际作战。
这只是人工智能开始重塑美国国家安全的办法之一。
美国军方正在利用人工智能来优化从设备掩护到预算决策的统统事情。
情报剖析师依赖人工智能快速扫描海量信息,以识别干系模式,使他们能够做出更快、更好的判断。
在未来,人工智能也会改变美国及其对手在沙场上的作战办法。

简而言之,人工智能引发了一场安全革命,而这场革命才刚刚开始展开。

美国AI发展现状与不敷

加速支配AI,提及来随意马虎做起来难。
在人工智能研发方面,美国可能处于天下领先地位,美国政府仍在努力快速、大规模地采取人工智能等创新技能。
但它还没有雇用足够的专业技能职员来测试、评估、采购和管理AI产品。
它仍在构建支持大型人工智能模型所需的数据和打算机根本举动步伐。
它缺少所需的灵巧资金,无法迅速采取最有出息的人工智能原型,并在各机构之间进行推广。
它还没有建立测试和评估流程和平台,以确保任何集成到美军系统中的人工智能都是安全、可靠和可信的。
如果美国要将人工智能用于动用武力方面,就必须保持非常高的安全性和可靠性门槛。

▲美军在人工智能基地测试无人机。

美国政客和国防官员都意识到了这些问题。
美国国会正在谈论如何监管该行业,同时保持其环球竞争力。
但国会尚未采纳行动,五角大楼的人工智能框架的履行仍在进行当中。
只管五角大楼设立了“首席数字和人工智能办公室(CDAO)”,但美国国会尚未为该办公室供应所需的资源。
为了确保人工智能的国防运用既安全又成功,五角大楼须要进一步加强人工智能护栏,增加新的技能职员,并开拓用来测试和采购人工智能的新方法。
时不我待,美国一旦掉队,面临的风险太高。

AI对美军带来的改变

只管干系政策和法规仍在制订中,但人工智能已经在改变美国的安全。
例如,美国空军正开始利用人工智能来帮助其分配资源,并预测单个决策如何影响其项目和预算。
军方也开始利用人工智能模型从平台的传感器网络数据,掩护繁芜的武器系统。
这些帮助美军掩护武器系统的见地非常有用,但它们只是“预测型人工智能”(Predictive AI)的起步功能。
美国情报界和几个美国作战司令部正在利用人工智能筛选大量机密和非机密数据,以识别行为模式并预测未来的国际事宜。
比如,在情报界,人工智能帮助剖析人士提前数月预测俄罗斯入侵乌克兰,使美国能够向天下发出警告,并让俄罗斯总统·普京措手不及。

“预测型人工智能”还可以让美国更好地理解中国的想法。
冷战顶峰期间,美国有大批专家研究苏联决策,而美国现在仍在研究中国政府如何将政策转化为详细行动。
例如,美国情报界可以开拓一个大型措辞模型,纳入中国官方所有可用的笔墨和演讲,以及美国自己针对这些数据的情报报告,然后仿照中国可能会如何实行既定政策。

人工智能还可以以其他办法支持军事行动。
例如,如果对手要滋扰或攻击美国的指挥、掌握和通信网络系统时,人工智能可以启用智能交流和路由代理,对传感器、决策者和射击者之间的信息流进行重新定向,以确保它们保持连接并保持态势感知。
美国具备这些能力对付确保其与盟友能够比对手更快地做出更好的决策至关主要。

人工智能还可以通过放大个人在沙场上的表现来进一步帮助美国和盟国部队。
目前,美国正在开拓的一些人工智能运用程序许可单个操作员掌握多个无人系统,例如空中、水上或海底的一群无人机。
例如,战斗机翱翔员可以利用一群翱翔的无人机来迷惑或压倒对手的雷达和防空系统。

五角大楼最近宣告了“复制者”(Replicator)无人机操持,该操持承诺在未来两年内支配数千个小型、智能、低本钱、可花费的自主系统。
这种人机互助可能会在台海冲突中发挥至关主要的浸染。
如果中国决定武统台湾,美军长途跋涉且数量少,不具备作战上风。
如果美军可以用大量相对便宜的“无人系统”来增强其“载人平台”,如战斗机、轰炸机、舰艇和潜艇,它可以在一定程度上填补相对劣势,并使中国军队的行动更加繁芜化。

如何和大国竞争?

当然,中国无意将技能主导地位拱手让给美国。
中国正在努力开拓自己的前辈人工智能军事运用。
中国在许多与美国相同的人工智能用例上投入了大量资金,比如监视、目标识别和无人机群。
在大国技能竞争中,中国有一些明显的上风。
与华盛顿不同,中国可以决定其国家的经济优先事变,并分配任何必要的资源来实现人工智能目标。
由于中国实施“军民领悟”政策,中国军方随时可以吸引中国专家和公司为其事情。
到2025年,中国在科学、技能、工程和数学领域培养的博士研究生数量将是美国的近两倍,特殊是有才华的打算机科学家将涌入中国经济系统。

美国有自己独特的上风,即美国的市场经济和政治系统编制。
它在硅谷、奥斯汀大都会区、马萨诸塞州128号公路走廊和其他地方拥有无与伦比的创新生态系统。
它也拥有一个充满活力的风险成本和私募股权生态系统,吸引了无可比拟的海内和国际投资。
它是天下上许多顶尖大学的所在地,使得它能够吸引和留住一些天下上最好的科技人才。
事实上,硅谷一半的初创公司至少有一位创始人是移民。

为了让美国更好地赢得AI竞争,美国国防部和情报界将不得不在加速人工智能运用方面投入更多资金。
他们可以从建立共享相同标准的通用数字根本举动步伐系统开始,以确保互操作性。
工具的好坏取决于操作它们的专业职员。
而目前,美国国防部还没有一支闇练节制数字技能的员工军队。
很少有人对人工智能有足够的理解,能够精确地管理其利用、测试和评估人工智能工具,以确保它们符合五角大楼的“负任务的人工智能”(Responsible AI)标准,或者评估哪种人工智能模型最能知足军方或国防部的需求。

为了吸引更多的人工智能人才,并更好地利用现有的技能劳动力,美国国防部须要改进招募和管理数字技能员工的办法。
所有现有的军事院校都该当开始教授人工智能的根本知识,五角大楼还该当建立一所美国数字做事学院,教诲和培训有抱负的文职技能职员,为他们供应免费的大学教诲,以换取他们承诺在毕业后至少为政府做事五年。
末了,国防部该当建立一支数字后备军,让来自美国各地的技能事情者可以志愿兼职为国家做事。
最主要的是,五角大楼必须改进事情办法,像私营部门那样招揽和利用外部人才。

只管内部改革将帮助五角大楼加快进展,但国防官员也须要国会的持续支持,才能跟上中国同行的步伐。
为此,国会该当给予国防部更灵巧的资金,使其能够以最佳办法管理人工智能项目。
美国还须要连续吸引天下上最精良的科技人才,包括改革美国移民制度,让专业技能学生和工人能够来到美国并留在美国。
比如,现在的教诲签证不许可外国学生在毕业后在美国勾留超过三年。
由此导致的结果是:美国机构培养了许多天下上最好的技能专家,结果却把他们送走了。
他们中的许多人是中国人,并返回了中国。

简而言之,美国正在将急需的外国人才拒之门外,这些人才乐意为美国在人工智能和其他关键技能领域的竞争力方面做出故意义的贡献。

高风险与高回报

人工智能对美国的未来安全至关主要,但也会带来重大风险。
比如,人工智能已经加速了网上虚假信息的传播,并在招聘中助长了无意的歧视。
打算机科学家认为,人工智能也可以实现“机器速率”的自动网络攻击;化学家已证明,人工智能可以合成化学武器;生物学家担心人工智能可能被用来设计新的病原体或生物武器。
这些风险非常严重,乃至连人工智能行业的领导者都发出了警告。
2023年5月,险些所有美国的人工智能实验室的卖力人都签署告终合声明,警告他们的发明可能对人类的生存构成威胁。

事实上,国家安全属于人工智能风险最严重的人类活动领域。
例如,人工智能模型可能会缺点地将人或物体识别为目标,从而在冲突期间导存问外去世亡和毁坏。
在一种情形下可能是完备理性和负任务的AI模型,在另一种情形下却可能是不合逻辑且危险的。
五角大楼意识到了这些风险,并于2020年2月发布了一套规范人工智能利用办法的伦理原则。
对付自动和半自动武器,美国国防部发布了更详细的辅导见地。
例如,任何人工智能武器都必须能够区分沙场上的战斗职员和非战斗职员。

五角大楼还禁止在核武器指挥掌握系统中利用人工智能,并敦促其他核大国也这样做。
虽然这些“负任务的人工智能”规则在美国防务界的领导层中已经达成了很大共识,但将它们付诸实践绝非易事,尤其是考虑到美国国防装备的规模。
目前,五角大楼已经启动了这一进程,但仍处于低级阶段。

只管如此,五角大楼进一步加强(“负任务的人工智能”)辅导方针将是明智之举。
伦理原则从一开始就该当被视为国防人工智能模型设计的必要特色。
除非"大众相信它将以有效、负任务、道德和合法的办法利用人工智能,否则美国军方将无法加速人工智能的支配。
五角大楼该当考虑让供应商对他们如何开拓人工智能设置护栏。
例如,如果一家公司想向军方供应人工智能,国防部可能会哀求它知足严格的数据保护和网络安全标准。
通过这样做,五角大楼可以帮助人工智能变得更安全。

和中国与盟友的对话与互助

当然,美国不能单凭一己之力确保人工智能的开拓和利用是负任务的。
其他国家,包括竞争对手,也将不得不采纳政策保障和规范。
2021年11月,193个国家批准了一项关于人工智能伦理的环球协议《人工智能伦理问题建议书》,这是天下上第一个此类协议。
该文本确定了共同的代价不雅观和原则,用以辅导培植必需的法律框架来确保人工智能的发展。
只管这项协议是一个主要的根本,但美国该当探求与中国谈论人工智能的渠道,就像它在冷战期间与苏联谈论核武器和其他形式的武备掌握一样。
除此以外,美国还必须与其盟友和伙伴密切互助,保持同等行动。

在国家安全领域,人工智能的进步表示了另一种“摩尔定律”。
未来几年,无论哪支军队首先节制了将数据和人工智能的利用进行组织、整合和制度化,那么它将得到军力的指数级进步,使其具有比对手更显著的上风。
在这方面,美国不能掉队。
但国家安全机构也承担不起轻忽大意而导致的后果。
如果没有适当的保护方法,人工智能模型可能会造成各种意想不到的侵害。

美国彷佛面临一个困境:减缓人工智能发展的风险高得令人无法接管,但在没有必要预防方法的情形下加速发展人工智能的的风险也同样令人无法接管。
美国的政策制订者彷佛理解这个悖论。
美国国会领导人知道,监管过严可能会匆匆使最精良人才离开美国,这样美国就会掉队于竞争对手。
但两党政策制订者也明白,一些监管和监督对付确保人工智能“被安全和负任务地采取”是至关主要的。

理解这个问题只是第一步。
为理解决这个问题,平衡速率与安全之间的需求,政策制订者必须采纳更好的方法来加速AI采取并确保安全。
否则,美国人就有可能陷入一个人工智能风险不断上升、美国实力和影响力不断低落的田地。