当地韶光8月10日,美国国防部宣乐成立天生式人工智能(AI)事情组,名为利马(Lima)事情组,将在剖析和集成国防部的大型措辞模型(LLM)等天生式人工智能工具方面发挥关键浸染。

美国国防部成立生成式AI工作组资助改进情报和作战筹划_人工智能_国防部 计算机

“负任务地履行”

“利马特殊事情组的成立突显了国防部对引领人工智能创新的武断承诺。
”卖力辅导该小组成立的美国国防部副部长凯瑟琳·希克斯(Kathleen Hicks)说, “当我们驾驭天生式人工智能的变革力量时,我们的重点仍旧是确保国家安全、最大限度地降落风险以及负任务地整合这些技能。
国防的未来不仅在于采取尖端技能,还在于以远见和任务感,以及对我们国家更广泛影响的深刻理解来实现这一目标。

在数字和人工智能首席办公室的领导下,利马事情组将评估、同步和利用全体美国国防部的天生式人工智能能力,还将利用国防部与情报界和其他政府机构之间的互助伙伴关系。

数字和人工智能首席办公室于2022年6月开始运营,致力于整合和优化全体国防部的人工智能能力。

美国国防部称,通过利用天生式人工智能模型,旨在加强其在作战、商务、康健、战备和政策等领域的运作。
国防部数字和人工智能卖力人克雷格·马泰尔(Craig Martell)表示, “我们还必须考虑我们的对手将在多大程度上利用这项技能,并寻求毁坏我们对基于人工智能的办理方案的利用。

“国防部认识到天生式人工智能在显著改进情报、作战方案以及行政和业务流程方面的潜力。
然而,负任务地履行是有效管理干系风险的关键。
”利马事情组任务指挥官、数字和人工智能首席办公室算法战役理事会成员、海军上校曼努埃尔·泽维尔·卢戈(Manuel Xavier Lugo)表示。

据美国军事媒体“国防一号”宣布,该事情组还将帮助五角大楼更好地理解实现新的人工智能目标须要采购什么,可能包括更多的云做事、数据或合成数据、模型。

如何办理“幻觉”问题?

天生式人工智能根据演习过的数据天生新的输出,面向公众年夜众的此类工具包括ChatGPT等基于大型措辞模型的谈天机器人,它可以编写看起来与人类输出一样的新文本,已经被用来撰写论文、商业操持乃至科学论文。
但由于大型措辞模型基于来自互联网的数据语料库演习,因此它们有时会撒谎,被称为产生“幻觉”。
出于这个缘故原由,五角大楼官员一贯表示不愿接管天生式人工智能。

“国防部必须负任务地寻求采取天生式人工智能模型,同时确定适当的保护方法并减轻可能因培训数据管理不善等问题而导致的国家安全风险。
”马泰尔说。
他指出,许多用例中涌现“幻觉”的风险太高,无法采取大型措辞模型,例如“任何运动的东西”,或者处理致命武器时。
国防部必须理解它们可以在哪里安全利用,以及对手可能在哪里支配它们。

一个问题是,美国国防部是否拥有足够的数据让天生式人工智能发挥浸染。
虽然该部门拥有大量精心整理的内部数据,但大量的喷气发动机诊断数据或多年的中东无人机监控录像并不能构成大型措辞模型。

“我们是否有足足数据覆盖足够广泛的范围,以至于在没有预先演习的数据的情形下也能坚持模型的代价,这是一个悬而未决的问题。
另一方面,我的假设是,预先演习的数据越多,产生幻觉的可能性就越大。
以是这是我们必须探索的一个权衡。
我不知道,实际上我认为科学界还不知道答案。
”马泰尔说。

至少,像ChatGPT这样的工具现在不适宜国防部,缘故原由之一是天生得当结果所需的工程量。
马泰尔表示,冗长的提示树对付业余爱好者来说很好,但是必须实行繁芜任务的操作员须要一个直不雅观且从一开始就功能更好的界面。