英国上议院宣告《谨慎提高:人工智能在武器系统中的应用》申报_人工智能_兵器体系
英国上议院于2023年12月1日发布《谨慎提高:人工智能在武器系统中的运用》报告(Proceed with Caution: Artificial Intelligence in Weapon Systems,下文简称《报告》)。《报告》首先先容了人工智能支持的自主武器系统,其次磋商了自主武器系统可能对沙场产生的影响。此外,还进一步谈论了国际人性主义法如何适用于自主武器系统。末了,简要概括了英国在人工智能系统开拓和运用层面的情形和态度。现将该报告紧张内容编译如下,供读者参考。
01 人工智能支持的自主武器系统 (一)自主武器系统的定义 《报告》指出,自主武器系统(Autonomous Weapon System(s),AWS)是指能够在险些没有人为干预的情形下选择、探测和攻击目标,或者在一个或多个方面具有一定自主性的武器系统。当前国际上对AWS的定义还有争议,许多专家呼吁有必要制订出公认的AWS定义。个中英国尚未明确AWS的内容构成,这对其制订干系政策和参与国际论坛谈论构成了寻衅。英国国防部对在如此繁芜和快速发展的自主武器系统领域授予AWS某种狭隘的定义持谨慎态度,一方面,有局限性的内涵将面临很快过期的情形,无意中阻碍国际干系进展。另一方面,同其他国家和组织采取与技能无关的定义比较,英国不参与定义AWS的做法有一定的合理性。 《报告》认为无论AWS的详细定义如何,都必须包含以下要素:一是具备自主性。AWS完成从识别到选择,末了到攻击的全体征战周期险些或完备不须要人工参与。二是利用AI技能。通过对从传感器获取的信息进行AI剖析,进而实现获取、跟踪、选择和攻击军事目标。三是明确利用目的。支配AWS系统的目的在于增强毁坏力。 (二)AI模型的功能和局限 《报告》指出,AI技能或最具变革性、颠覆性和普遍性,正在改写全体行业规则。AI系统中支持机器剖析的底层技能和主导领域是机器学习。因此,理解机器学习系统运行的风险和可靠性十分主要。机器学习系统的输出是概任性的,这意味着它可能会产生不愿定的输出,尤其是当其运用于全新的、具有寻衅性的环境时,这样的环境增加了利用过程中不可预见的风险,从而削弱指挥官或操作员准确预测结果的能力,因此在设计阶段应进行适当的人工输入和掌握。除此以外,具有代表性的数据集对付机器学习系统的成功是至关主要的。然而,用于演习AWS的真实数据由第三方供应,面临在数量和质量上受到限定的情状,因而难以对数据进行检讨。对此,《报告》认为政府须要网络、处理好高信度和效度的数据集。 图2:大型数据集图片 02 AWS与未来沙场 《报告》认为在沙场上利用AWS对付战役来说是一次革命,由于AWS将人工智能带到了沙场上。 (一)AWS潜在沙场效益和风险 《报告》指出,支持AI技能的AWS在防御能力和准确性方面能发生阶梯式变革,详细表示在速率和效率的提高。这些能力一旦实现,就很可能改变战役的性子,减少伤亡。与此同时,包括AWS在内的AI武器也带来了风险。一是AI技能能否准确识别和瞄准威胁,当前的AI系统非常薄弱,难以适应限定性的假设范围之外的条件;二是人类不参与实际沙场作战可以减少利用武力的决策韶光,加快自主系统的利用速率,从而可能使冲突升级。三是没有明确自主系统的卖力人将导致自主系统可能存在行为不合法或不合意的情形。四是由打算机软件支撑的系统易受到网络攻击,攻击者可能试图掌握系统、中断操作、网络机密信息或修改培训数据。针对这些问题,《报告》认为英国政府必须理解人工智能系统的能力和局限性,根据人工智能系统和人工操作系统的操作和易错性对AWS的性能进行基准测试。然而,英国目前在如何办理保护系统免受敌方滋扰或攻击的问题以及如何应对敌方利用AWS方面存在困扰,政府须要意识到敌方利用AWS带来的威胁,从而避免由于盲目自傲能够垄断某项技能而轻视仇敌的想法。同时,也必须采纳行动,尽可能确保英国自身材系不受滋扰。 (二)人工智能武备竞赛 环绕武备竞赛的话题每每侧重于西方与中国的比拟。伦敦国王学院战役研究系(War Studies, King’s College London)名誉教授劳伦斯·弗里德曼爵士(Lawrence Freedman)认为武备竞赛分为两种:一种是双方都试图做同样的事情,另一种是一方费尽心机打击对方。斯德哥尔摩国际和平研究所(Stockholm International Peace Research Institute)人工智能项目管理主任文森特·布兰宁(Vincent Boulanin)博士表示,各国正在进行的不是武备竞赛,而是一场为了获取数据、人才、硬件的人工智能能力竞赛。 (三)核指挥、核掌握和通信领域中的人工智能 人工智能的发展可能在核指挥、核掌握和通信方面(nuclear command, control and communications,NC3)产生更大的影响。机器学习可以提高预警系统的探测能力,增加对情报、监视和侦察(intelligence, surveillance and reconnaissance ,ISR)数据进行交叉剖析的可能性,增强对构造的保护,使其免受网络攻击,并提高系统性能。但是,AI的繁芜性和薄弱性也带来了风险。敌方可能黑客攻击系统、毁坏演习数据或操纵输入。同样,AI可能被用来欺骗、黑客攻击乃至改造预警系统或其他掌握构造,使其相信核打击正在进行。 图3:核打击图片 03 自主武器系统干系的国际法问题 (一)自主武器法和国际人性主义法 在武装冲突中利用自主武器系统紧张受国际人性主义法统领。国际人性主义法是规范国家间以及国家与非国家武装团体之间武装冲突的国际法体系。该法旨在保护平民和其他非战斗职员(如伤病员、医务职员和战俘)并防止不必要的痛楚。国际人性主义法的基本规则由来已久,其源自习气国际法和国际条约,特殊是1949年制订的《日内瓦公约》(Geneva Conventions)和1977年弥补的《附加议定书》(Additional Protocols)。这些国际人性主义法条约在武装冲突方面制订了详细规定,个中有四项一样平常原则适用于所有情形下的敌对行动。以下是这四项一样平常原则的内容: 军事必要性(Military necessity):只有在实现冲突合法的必要情形下才可以对仇敌利用军事力量。 人性(Humanity):任何一方不得造成超出实现合法军事目的范围的痛楚、侵害和毁坏。 区分(Distinction):冲突各方在任何时候都必须区散布衣和战斗职员,民用物体和军事目标。攻击必须只针对战斗职员或军事目标,不区散布衣和战斗职员的攻击将被视为滥杀滥伤和造孽攻击。 相称性(Proportionality):国际人性主义法不禁止可能对平民或民用物体造成附带侵害的攻击,但如果比较于军事利益,对平民造成了不成比例的侵害,那么这种攻击就是非法的。《日内瓦公约第一附加议定书》(Additional Protocol I to the Geneva Conventions)将不相称的攻击定义为“可能附带造成平民生命丢失、平民受侵害、民用物体受危害,或三种环境均有,而且与预期的及直接军事利益比较危害程度过多”的攻击。 图4:天下人性主义日 (二)自主武器系统遵守国际法的情形 《报告》指出许多人对自主武器系统遵守国际人性主义法,特殊是对区分原则和相称性原则的能力表示严重关怀。由于这些原则的适用每每须要在繁芜和变化多端的军事设想背景下作出判断,而这种判断在很大程度上取决于情势的背景和详细事实。 红十字国际委员会(International Committee of the Red Cross)法律顾问乔治亚·海因兹(Georgia Hinds)认为,该组织最关注的是一旦被人类启动就会自动发起攻击的自主武器系统。这些系统利用在启动阶段被输入进去的通用目标文件,并对传感器探测到的环境信息作出反应。但个中也存在困难,即用户没有选择,乃至无法完备知道特定目标、武力打击的精确韶光和位置。 专家们同等认为,在目前的技能水平下,机器还无法取代人类胜任特定评估事情。纽卡斯尔大学法学院(Newcastle University Law School)讲师艾略特·温特(Elliot Winter)博士认为,机器并不具备某些任务所需的理解和推理能力。例如识别受伤或屈膝降服佩服的战斗职员,或辨别出特定打击中哪种程度上的附带危害是可以接管的。要具备令人满意的判断能力,当下人工智能的水平还有很大的提升空间,乃至要发展为和人类一样智能的“通用人工智能”(artificial general intelligence,AGI)。 图5:美国“捕食者”无人机 不足为奇,埃塞克斯大学法学院(University of Essex Law School)的诺姆·卢贝尔(Noam Lubell)教授认为,至少目前不可能有哪一台机器能实行相称性原则所哀求的平衡行动,该原则哀求将民事丢失与军事打击必要性相区分。他认为目前有一些基于人工智能的附带危害评估工具,但只能评估个中一个。平衡二者还须要人类来做......技能无法做到这一点,利用它显然将是违法的。此外,人们也担心人工智能系统中有可能存在偏见。目标配置文件中的偏见会引起更多潜在的国际人性主义法合规问题。理查德·莫耶斯(Richard Moyes)指出,在美国的无人机操持中,如果在打击中被杀的人是16至70岁的男性,那么他们就会被评估为战士,而非平民。这显然在法理上违背了人们是否会成为打击目标的标准。 虽然诸如上述针对自主武器系统的担忧不在少数,但是也有一些型号的自主武器系统已经投入利用多年,且经评估符合国际人性主义法。斯德哥尔摩国际和平研究所人工智能管理项目主任 文森特·布兰宁(Vincent Boulanin)博士举了一些例子,个中就有于1973年开始服役的密集阵系统(The Phalanx System)。这种系统紧张安装在船上,如果侦察到有危险来袭,它就会切换到自主模式。不论入侵得是导弹还是飞机,该系统都能通过其目标识别系统识别并肃清它们带来的威胁。 图6:方阵近迫武器系统/密集阵近防系统 (三)故意义的人为掌握 英国国防部在2022年发布的《年夜志勃勃、安全、负任务:我们在国防领域供应人工智能能力的方法》(Ambitious, safe, responsible: our approach to the delivery of AI-Enabled capability in Defence)政策文件中指出,政府反对制造和利用在全体生命周期内缺少有效人工干预的自主武器系统。利用这类武器不符合国际人性主义法的基本原则。 布兰宁博士认为“故意义的人为掌握”表示出一种理念,即人应该对利用武力的决定保持自主权。“故意义”的意思是仅仅凭借人的监督无法确保自主武器系统遵守国际人性主义法,尤其是系统本身可能存在自动化偏见问题。人类该当积极发挥浸染,确保自主武器系统的利用符合法律规定和伦理道德,同时高效完成军事任务。然而,对“故意义的人为掌握”这一观点的认识还存在诸多不合。正如茨韦特丽娜·范·本特姆(Tsvetelina van Benthem)所强调的那样,没有形成统一观点的缘故原由在于这些笼统的术语可以从不同的角度去阐明。故意义的掌握是指在程序设计阶段进行干预,并明确指令参数、培训职员?或者说它是自主武器系统在全体生命周期中具有可阐明性的必要条件?还是说在每次利用自主武器系统进行武力打击前都要确保有人类参与? (四)武器发展期间的国际人性主义法责任 《日内瓦公约第一附加议定书》第36条规定,各国有责任在研究、开拓、利用新型武器,采取新型作战办法时,确保它们在某些或所有情形中是否会被《第一附加议定书》或其他适用的国际法禁止。这意味着,在政府开拓自主武器系统时,必须对其是否能够以符合国际人性主义法的办法利用进行有效审查。该规定哀求在武器采购过程的所有阶段,特殊是研究阶段、开拓阶段和采购过程的初始阶段,对新武器的合法性进行评估。 同时第36条规定也存在毛病:(1)只有少数国家有能力进行第36条审查;(2)审查程序没有国际监督,也不哀求各国表露其武器审查的结果(3)对如何进行审查也没有任何具有约束力的辅导。只管如此,英国国防部仍强调了第36条规定的主要性,认为它是确保自主武器系统符合国际人性法的主要保障之一。其余,英国国防部详细先容了如何进行第36条审查,并强调这些保障方法意味着“不符合国际人性主义法的武器永久不会进入英国的武器库存,用于武装冲突。” 在研发过程中测试新武器是第36条规定中的一个关键要素。但是,对支持人工智能的自主武器系统进行有效测试也存在很大困难,紧张表示在以下几方面。 首先,在测试内容方面存在困难。加州大学伯克利分校(University of California, Berkeley)打算科学系教授斯图尔特·罗素(Stuart Russell)表示,不仅在测试支持人工智能的自主武器系统的歧视方面存在困难,而且针对其相称性和必要性的测试也不随意马虎开展。由于测试支持人工智能的自主武器系统的相称性和必要性非常依赖特定环境,它取决于整体军事形势等各方面成分。因此,设计出能够做出可靠判断的人工智能系统非常困难,在实验室开展针对那些条件的实验也是如此。 其次,是缺少数据演习集。机器学习须要大量的演习数据集,每每经由数百万次迭代,机器才能学到一些知识。受制于沙场的不愿定性、不可预测性,以及伦理问题,自主武器系统无法在沙场上进行演习。 图7:日内瓦公约及其附加协定书 04 英国海内有关自主武器系统的政策 (一)五项基本原则 在《年夜志勃勃、安全、负任务:我们在国防领域供应人工智能能力的方法》报告中,英国政府阐明了“重视人工智能的益处”和“应对其他国家利用人工智能的威胁”的主要性,并进一步指出,这是“当前这个时期最关键的计策寻衅”之一,还列出了开拓和支配支持人工智能的自主武器系统的五项原则。它们是: (1)以人为中央:在系统的全体生命周期中考虑任何AI系统对人类的影响。 (2)任务:明确支持人工智能的自主武器系统中人类须要承担的任务,确立问责制。 (3)理解:确保干系职员适当理解支持人工智能的自主武器系统及其输出。 (4)减少偏见和危害:哀求支持人工智能的自主武器系统的卖力人减少系统中的风险和偏见。 (5)可靠性:支持人工智能的自主武器系统必须安全可靠。 (二)采购、创新和人才军队方面 在采购方面,英国国防部表示,虽然不用除将人工智能纳入武器系统的可能性,但目前还没有采购AWS的操持。其余,英国国防部推出了“商业X”(Commercial X)操持,该操持将通过专注数字办理方案来改变采购流程,其目的是更快地将新技能带给用户,并加快交付速率,以确保前哨部队的技能能知足不断变革的哀求。只管如此,下议院国防委员会在2023年7月发布的《它出故障了--是时候修补它了:英国国防采购系统》(It is broke — and it’s time to fix it: The UK’s defence procurement system)一文中指出,英国的采购系统官僚主义严重,过于繁琐,对安全的处理方法不一致,问责制不足健全,而且其文化彷佛在系统编制上厌恶个人任务。并对此提出了如下建议: (1)国防部和国防装备与支持部应与工业界进行更加同等的对话。 (2)国防部应提出一项操持,解释其打算在未来10年内如何帮助发展和培养国防人才军队。 (3)国防部在确定采购需求后该当尽早在性能、本钱、韶光和技能繁芜程度上做出权衡。 (4)国防部必须在其采购方法中培养更强的紧迫感。 (5)如果操持碰着严重困难,国防部应在必要时对承包商采纳更强硬的态度。 在用人方面,国防部在国防人工智能计策(Defence Artificial Intelligence Strategy)中确定了对更多人工智能专业知识的需求。国防部在书面文件中指出,其正在制订国防人工智能技能框架(Defence AI Skills Framework),该框架将确定全体国防领域的关键技能哀求。这项事情将由国防人工智能中央(Defence AI Centre)履行,该中央还将研究制订从闇练的通才到具有专业技能的一系列职员的招聘和留用方案。 图8:《国防人工智能计策》 但是,国防部长也承认在引进和留住高本色人才方面存在薪酬问题。《报告》指出,政府必须能够调配足够多的合格职员从事人工智能事情,并对私营开拓商和制造商的采购报价进行严格审查。要做到这一点,可能须要制订新的薪级表,或者借调私营部门的事情职员。 05 结语 英国国防部发布的《谨慎提高:人工智能在武器系统中的运用》报告,旨在应对新一轮军事科技革命浪潮下人工智能技能在军事作战领域和武器研发方面的寻衅,顺应时期潮流,增强国防实力。《报告》中提出的保持人对武力利用的决定权,确保自主武器的利用兼顾法律规定和伦理道德,从顶层设计上制订国防人工智能技能框架等不雅观点和做法都值得我们学习借鉴。
免责声明:本文转自军事高科技在线,原作者李月牙, 迮莹莹, 杨丽娟。文章内容系原作者个人不雅观点,本公众号编译/转载仅为分享、传达不同不雅观点,如有任何异议,欢迎联系我们!
转自丨军事高科技在线
作者丨李月牙, 迮莹莹, 杨丽娟
研究所简介
国际技能经济研究所(IITE)成立于1985年11月,是从属于***发展研究中央的非营利性研究机构,紧张职能是研究我国经济、科技社会发展中的重大政策性、计策性、前瞻性问题,跟踪和剖析天下科技、经济发展态势,为中心和有关部委供应决策咨询做事。“环球技能舆图”为国际技能经济研究所官方微信账号,致力于向公众年夜众通报前沿技能资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
本文系作者个人观点,不代表本站立场,转载请注明出处!