在俄罗斯和乌克兰的冲突中,***画面显示,无人机深入俄罗斯领土,间隔边疆1000多公里,并摧毁了石油和天然气根本举动步伐。
专家表示,人工智能(AI)很可能正在帮助辅导无人机瞄准目标。
对付这种武器,没有人须要扣动扳机或做出引爆的末了决定。

致命的人工智能武器来了:我们若何控制它们?_人工智能_兵器 AI简讯

包括配备人工智能的无人机在内的致命自主武器(LAWs)的开拓正在增加。
例如,美国国防部迄今已为其“复制者”(Replicator)操持拨款10亿美元,该操持旨在建立一支小型武器化自动驾驶汽车车队。
实验用的潜艇、坦克和舰船都利用人工智能来驾驶和射击。
商用无人机可以利用人工智能图像识别来锁定目标并将其炸毁。
法律不须要人工智能来操作,但这项技能增加了速率、特异性和躲避防御的能力。
一些不雅观察人士担心,在未来,任何派系都可能派出大批廉价的人工智能无人机,利用面部识别技能除掉某个特定的人。

战役是人工智能的一个相对大略的运用。
“一个别系找到一个人并杀去世他们的技能能力比开拓一辆自动驾驶汽车要随意马虎得多。
这是一个研究生项目,”加州大学伯克利分校(University of California, Berkeley)的打算机科学家、反对人工智能武器的有名活动家斯图尔特•拉塞尔(Stuart Russell)表示。
2017年,他帮助制作了一个名为“屠杀机器人”的病毒***,突出了可能存在的风险。

人工智能在沙场上的涌现引发了研究职员、法律专家和伦理学家之间的辩论。
一些人认为,人工智能赞助武器可能比人类制导武器更准确,可能会减少附带危害——比如平民伤亡和对居民区的毁坏——以及士兵去世亡和致残的数量,同时帮助薄弱的国家和群体自卫。
其他人则强调,自主武器可能会犯下灾害性的缺点。
许多不雅观察人士对将目标定位决策交给算法有紧张的道德担忧。

2023年7月,联合国安理会谈论了人工智能武器问题。
图片来源:Bianca Otero/Zuma/eyevine

多年来,研究职员一贯在努力掌握这种新威胁。
现在,联合国已经迈出了关键的一步。
去年12月的一项决议将法律议题列入今年9月的联合国大会议程。
联合国秘书长António古特雷斯去年7月表示,他希望到2026年禁止无人监督的武器。
马萨诸塞州剑桥市哈佛大学法学院的人权状师邦妮·多彻蒂(Bonnie Docherty)说,在十多年来进展甚微的情形下,将这一议题纳入联合国议程具有主要意义。
“外交行动缓慢,但这是主要的一步,”她说。

专家表示,此举为各国在人工智能武器问题上采纳行动供应了第一条切实可行的路子。
但这提及来随意马虎做起来难。
这些武器引发了一些棘手的问题,比如人的能动性、问责制,以及官员该当在多大程度上把死活决定外包给机器。

在节制之中吗?

掌握和规范武器利用的努力可以追溯到几百年前。
例如,中世纪的骑士们赞许不用长矛瞄准对方的马。
1675年,征战的法国和神圣罗马帝国赞许禁止利用毒弹。

如今,对武器的紧张国际限定是通过1983年的《联合国特定常规武器公约》(UN Convention on Certain Conventional Weapons,简称CCW),该条约曾被用于禁止激光致盲武器。

这种或那种自主武器至少已经存在了几十年,包括热追踪导弹,乃至可以追溯到美海内战的压力触发地雷(取决于自主性的定义)。
然而,现在人工智能算法的开拓和利用正在扩大它们的能力。

自2013年以来,《常规武器公约》一贯在正式调查人工智能武器,但由于须要国际共识才能通过法规,而且许多积极开拓这项技能的国家反对任何禁令,因此进展缓慢。
今年3月,美国主理了《负任务军事利用人工智能和自主的政治宣言》(Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy)的首次全体会议,这是一项平行的努力,强调最佳实践的志愿辅导方针,而不是法律上可逼迫实行的禁令。

部分问题在于对法律到底是什么缺少共识。
2022年的一项剖析创造,北大泰西公约组织(NATO)等国家和组织提出了至少十几个自主武器系统的定义。
罗素说,这些定义涵盖范围很广,对人工智能的共识有限,乃至对人工智能的理解也有限。

例如,英国表示,LAWs“能够理解更高层次的意图和方向”,而中国则表示,这种武器可以“自主学习,以超出人类预期的办法扩展其功能和能力”。
伊斯雷尔流传宣传:“我们该当阔别机器发展、创造或激活自己的想象——这些该当留给科幻电影。
”德国将“自我意识”作为自主武器的必要属性——大多数研究职员表示,这种品质纵然不是完备不可能,也与本日的人工智能相差甚远。

“这意味着武器必须在早上醒来,决定自己去攻击俄罗斯,”罗素说。

只管须要制订一个更全面、更详细、更现实的法律定义,但一些专家表示,这可以等待。
“传统上,在裁军法中,只管这是违反直觉的,但实际上他们常常在会谈中末了做出定义,”多赫蒂说。
一个可行的定义常日足以启动这一进程,并有助于缓和反对采纳行动的国家最初的反对见地。

人工智能的上风

根据奥登塞南丹麦大学战役研究中央(University of Southern Denmark)于2023年发布的一份剖析报告,目前军队指挥官可以利用的由人工智能制导的自主武器相对粗糙——行动缓慢、笨拙的无人机,配备了足够的炸药,可以炸毁自己和目标。

这些“四处游荡的弹药”有飞机模型那么大,代价约5万美元,能携带几公斤炸药到50公里外,足以摧毁一辆汽车或杀去世个别士兵。
这些弹药利用机载传感器监测光学、红外或无线电频率来探测潜在目标。
人工智能将这些传感器输入与预先指定的坦克、装甲车和雷达系统以及人类的轮廓进行比较。

不雅观察人士表示,与遥控无人机比较,这些自主炸弹供应的最显著上风是,如果对方拥有滋扰电子通信的设备,它们仍旧可以事情。
自主操作肃清了远程操作职员被仇敌追踪和攻击的风险。

只管有传言称,2020年自主弹药在利比亚杀去世了战斗职员,但来自乌克兰冲突的宣布证明了人工智能无人机现在正在利用的不雅观点。
罗素说:“我认为,在乌克兰,他们已经开始利用完备自主的武器,由于电子滋扰非常有效。
”乌克兰的雅罗斯拉夫·洪查尔(Yaroslav Honchar)等军事指挥官表示,该国“已经在没有人为干预的情形下进行了完备的机器人行动”。

很难知道人工智能武器在沙场上的表现如何,很大程度上是由于军方不公布此类数据
去年9月,在英国议会的一次调查中,当被直接问及人工智能武器系统时,英国计策司令部(UK Strategic Command)副司令汤姆•科彭格-赛姆斯(Tom Copinger-Symes)没有透露太多信息,只是说英国军方正在进行基准研究,将自主系统与非自主系统进行比较。
他说:“不可避免地,你想要检讨一下,与让10个图像剖析师看同一件事的老式系统比较,这种系统是否物有所值。

只管现实天下的沙场数据很少,但研究职员指出,人工智能具有卓越的处理和决策能力,理论上,这将供应显著的上风。
例如,在快速图像识别的年度测试中,算法的表现超过了人类专家的表现近十年。
例如,去年的一项研究表明,人工智能可以比人类专家更快、更全面地创造科学论文中的重复图像。

2020年,一个人工智能模型在一系列仿照空战中击败了一名履历丰富的F-16战斗机翱翔员,这要归功于“人类翱翔员无法比拟的激进和精确的操作”。
然后,在2022年,中国军事研究职员表示,一架由人工智能驱动的无人机降服了一架由地面操作员远程驾驶的飞机。
这架人工智能飞机爬上了对手的机尾,进入了一个可以将其击落的位置。

美国空军的X-62A VISTA飞机已被用于测试自主代理实行前辈空中机动的能力。
图片来源:美国空军图片

华盛顿计策与国际研究中央(Center for Strategic and International Studies)的安全剖析师扎克•卡伦伯恩(Zak Kallenborn)表示,人工智能无人机可以“环绕如何实行特定的练习、飞得离对手多近以及攻击角度做出非常繁芜的决定”。

不过,卡伦博恩表示,目前还不清楚人工智能武器能带来什么重大的计策上风,尤其是在双方都能得到人工智能武器的情形下。
他说:“问题的很大一部分不在于技能本身,而在于军队如何利用这项技能。

从理论上讲,人工智能也可以用于战役的其他方面,包括体例潜在目标的清单;例如,媒体宣布引发了人们的担忧,即以色列利用人工智能创建了一个包含数万名武装分子嫌疑人姓名的数据库,只管以色列国防军在一份声明中表示,它没有利用“识别胆怯分子特工”的人工智能系统。

沙地上的分边界

常日用来评估自主武器伦理的一个关键标准是它们的可靠性以及可能涌现问题的程度。
例如,2007年,英国军方匆忙重新设计了用于阿富汗的自主硫磺导弹,由于担心它可能会把一辆校车的学生误认为是一卡车叛乱分子。

Kallenborn说,人工智能武器可以相称随意马虎地锁定红外或强大的雷达旗子暗记,将它们与数据库进行比较,以帮助确定什么是什么。
Kallenborn说:“这相称有效,由于一个走在街上的小孩不会在他的背包里有一个大功率的雷达。
”这意味着,当人工智能武器探测到沙场上雷达旗子暗记的来源时,它可以在侵害平民的风险很小的情形下进行射击。

但他说,视觉图像识别问题更大。
Kallenborn说:“如果它基本上只是一个像相机一样的传感器,我认为你更随意马虎出错。
”只管人工智能善于识别图像,但它并不是万无一失的。
他说,研究表明,对图片的眇小改变会改变神经网络对它们进行分类的办法,比如让它们把飞机和狗搞混。

伦理学家的另一个可能的分边界是如何利用武器:例如,攻击还是防御。
前辈的自主雷达制导系统已经用于保护海上船只免受快速来袭目标的攻击。
英国兰开斯特大学(Lancaster University)的社会学家露西·萨奇曼(Lucy Suchman)研究人与机器之间的相互浸染,她说,伦理学家对这种自主武器更放心,由于它针对的是军器而不是人,而且这种旗子暗记很难被缺点地归因于其他任何东西。

研究职员和军方普遍提出的一个原则是,自主武器该当有一个“人在循环”。
但人们该当或必须在何处以及如何参与,仍有待谈论。
包括Suchman在内的许多人常日将这个想法阐明为,在授权攻击之前,人类特工必须在视觉上核实目标,并且必须能够在沙场条件发生变革时取消攻击(例如,如果平民进入战区)。
但这也可能意味着,人类在开释武器之前,只是对目标的描述进行了编程——这是一种被称为“发射后忘却”的功能。

一些系统许可用户根据详细情形在完备自主和人工赞助模式之间切换。
萨奇曼和其他人说,这还不足好。
“哀求人类禁用自动功能并不构成故意义的掌握,”她说。

完备自治的想法也搅浑了问责制。
多彻蒂说:“我们非常担心自主武器系统的利用会陷入问责制的空缺,由于很明显,你不能让武器系统本身承担任务。
”她补充说,让运营商对一个自主运行的系统的行为卖力,在法律上也是具有寻衅性的,而且可以说是不公正的。

罗素建议“在机载打算和发射电路之间没有通信”。
这意味着发射必须由远程操作职员激活,而不能由人工智能激活。

罗素说,在法律谈论中,至少有一点(险些)每个人彷佛都赞许:乃至包括美国和中国在内的普遍反对掌握的国家也表示,包括人工智能在内的自主代理不应该参与发射核武器的决定。

然而,俄罗斯在这个问题上彷佛更为谨慎。
人们普遍认为莫斯科重启了冷战期间的“周边”操持,至少在理论上,该操持可以在无人监督的情形下对西方发动首次核打击。
美国和中国在有关自主武器的各种会商中都提出了这个问题,许多人说,这可能会给俄罗斯施加压力,迫使其改变计策。

管理系统

Kallenborn说,不幸的是,任何禁止利用LAWs的禁令都很难通过检讨和不雅观察来实行——这是一种经典的“信赖但验证”的方法,常日用于其他受牵制的武器。

以核武器为例,有一个完善的核材料现场检讨和审计系统。
但有了人工智能,事情就更随意马虎隐蔽或改变。
“这可能就像改变几行代码一样大略,说,好吧,现在机器决定去炸毁它。
或者,你知道,删除代码,然后在武备掌握检讨员到达时将其重新插入。
”“这须要我们重新思考如何看待武器系统和武备掌握方面的核查问题。

卡伦博恩说,检讨可能不得不从生产时转向生产后。
“这些东西会被击落。
他们会被捉住的。
这意味着你可以进行检讨并查看代码。

从今年9月的联合国大会开始,所有这些问题都将纳入联合国的谈论;奥地利也在4月尾召开了一次先驱会议,以帮助启动这些对话。
Docherty说,如果有足够多的国家在9月份投票采纳行动,那么联合国可能会成立一个事情组来办理这些问题。

多赫蒂补充说,可能在三年内达成一项条约。
多赫蒂在联合国2017年《禁止核武器条约》的会谈中发挥了关键浸染。
“根据我的履历,会谈一旦开始,进展就相对较快。