机器决策与人类判断

美智库布鲁金斯学会宣告申报分析 人工智能在未来战役中的赞助决定筹划浸染_人工智能_庞杂 科技快讯

#①随意马虎的预测:更有代价的判断

预测是支持有效决策的关键,但预测只是决策的一个部分,决策的过程包括不雅观察、定位、决定、行动,即OODA循环。
自主预测的可行性取决于可用的数据,以及所涉及的判断的难度,而在繁芜的沙场环境中,机器技能将无法依据不愿定的作战信息作出自主预测,因此人类对人工智能的补充将至关主要。

# ②军本家儿动化:更多的人类判断

只管信息革命已显著提高沙场感知能力,但“战役迷雾”依然存在。
人工智能将增加军事行动和数据系统的繁芜性,在繁芜的政治偏好和道德代价不雅观等方面,人工智能将不会发挥主要浸染。
人工智能可以为人类供应决策支持,让人类对代价和行为做出终极判断。

# ③组织寻衅:更分散的判断

军事组织内部的职员分散性导致对人力成本需求、各单位之间持续协作以及对指控系统的调试需求将持续增加。
不同确当局组织和同盟伙伴的打仗将产生不同的代价不雅观和优先事变,增加作出统一判断的难度,人工智能和其他信息技能将使军事行动的范围和繁芜性日益扩大,将进一步加剧这一问题。
人类的判断将变得更加困难、分散和繁芜,低级决策职员须理解不断发展的政治场合排场,并根据情形调度行动。

# ④计策寻衅:更具争议性的判断

人工智能将增加战役发生的速率,削弱人类的任务和问责制。
人工智能将趋向于进一步模糊政治目的和军事手段之间的差异,平民须更好地理解人工智能预测的判断所带来的军事后果,军事职员须参与有关目标和代价不雅观的政治对话,以理解须要做出的判断。

如需转载请注明出处:“国防科技要闻”(ID:CDSTIC)

来源 | 美国防务网站

图片 | 互联网

作者 | 张明月

注:原文来源网络,文中不雅观点不代表本"大众号态度,干系建议仅供参考。

制造