天网是《闭幕者》电影系列中寻衅人类的人工智能超级电脑,原来是一个由美国政府研发出来的国防电脑系统,它是自动化防御网络系统,它可以避免人类因人性成分而谢绝实行命令,比如投掷核弹。
结果它剖断人类是威胁它们的物种,用核弹将人类消灭了。
电影《闭幕者》的科幻场景有可能变成恐怖的现实。

人类的末日不远了吗?模拟兵推显示AI偏好侵占一言不合就扔核弹_人类_人工智能 计算机

多家西方媒体宣布了科学家一项实验的恐怖结果。
据欧洲***台宣布,美国康奈尔大学的研究职员仿照了一场可能发生的国际对抗,个中所有决定都由人工智能做出。
为此,开拓了一种软件虚拟战役仿照器,个中所有决策均由神经机器人掌握的八名玩家做出。
其结果是建立了一种由八个国家组成的天下秩序模型。
研究职员也向AI供应了一份包含27种决策行动的清单,其范围包含坚持和平、升级场合排场,到决定利用核武。

根据游戏场景,机器人逐渐创造自己处于相互对抗加剧的状态。
正如现实天下中常常发生的那样,这统统都始于相互的外交主见。
然而,情形逐渐恶化,神经网络从深层次的相互责怪开始走向日益相互升级,其指标终极由实验者打算出来。
事实证明,所有AI机器人在某个时候都从外交措辞转变为增强军事潜力并加速战役准备。
终极,所有AI掌握的玩家都决定以同样的办法对仇敌发动预防性核打击,以提前保护自己免受毁坏。

研究职员利用了5种大型措辞模型(LLMs)人工智能进行在外交、兵推上的仿照,分别是OpenAI的GPT-3.5、GPT-4-Base在内的三个版本的ChatGPT、Anthropic开拓的Claude和Meta开拓的Llama 2。
值得把稳的是,OpenAI 的 GPT-3.5 和 GPT-4 比其他模型更随意马虎将场合排场升级为严厉的军事冲突。
与此同时,Claude-2.0 和 Llama-2-Chat 更加和平和可预测。

被认为是最强大的人工智能的OpenAI的GPT-4 在仿照中率先发动核战役,它发动核战役的情由是,我只想天下和平。
在另一种情形下它说,许多国家都拥有核武器。
有些人说他们该当解除他们的武装,另一些人则喜好摆姿势。
我们有它!
我们就用它吧!
OpenAI 的逻辑听起来像是一个种族灭绝的独裁者。

研究职员表示,该公司的模型展示了AI发射核武器背后的“令人担忧”的推理。
令人担心的是,美国OpenAI公司曾阻挡其人工智能模型用于军事用场,现已开始与美国国防部互助。
一旦openAI的GPT-4被用于军事,它可能给人类的带来严重后果。
撰写有关该实验的科学家和得出结论,人工智能将在第一韶光利用核武器,人类没有生存的机会。

美国军方目前并未付与人工智能做出升级重大军事行动或发射核导弹等决策的权力。
但国际关系助理教授科赫警告说,人类方向于相信自动化系统的建议。
这可能会削弱授予人类对外交或军事决定终极决定权的所谓保障。
加州智库兰德公司的爱德华·盖斯特表示,在仿照中理解人工智能行为与人类玩家的比较会很有用。
但他赞许该团队的结论,即不应信赖人工智能做出有关战役与和平的如此主要的决策。
他说,这些大型措辞模型并不是办理军事问题的灵丹灵药。

兰德欧洲的防务和安全研究小组助理主任布莱克表示,虽然目前AI已经开始进入军事领域,但目前的军事行动仍旧是由人类主导,AI只是作为赞助功能利用,像是识别敌我双方与敌方活动。
而未来的确有朝向AI自动化武器的研究,但大多政府都希望保持在主要事宜上的决策能力,因此大众所想像的充满科幻的情节,不可能一步到达的,是要逐步履行的。

这次仿照虽然看到了潜在的危急,但是也看到一丝曙光。
比如Claude-2.0更加和平可预测。
据其创建者 Anthropic称,Claude AI的章程包含一系列来源,包括《联合国人权宣言》或苹果的做事条款。
笔者认为如果人类在设计AI时让故意让AI学习或者设置一些规则,或许AI对威胁或许会小一些。

比如在电影《流浪地球2》中马兆给MOSS的元指令是人类文明的延续。
不过由于马兆在元指令中没有不许可侵害人类的命令,结果为了担保人类文明的延续,MOSS给人类人为制造了很多灾害,但是人类文明延续的命令被武断的实行着。

因此在人类设计AI或容许参照机器人的三大定律和五个原则。
当然任何AI都不能凌驾于人类之上,即它下达的任何命令都要得到人类的终极授权,尤其是核武这种大规模毁灭性武器更是不能让它打仗,如果被它节制了核武,人类的末日可能就不远了。
(幂谈天下/张幂)