格莱斯顿人工智能公司(Gladstone AI)发布了一份关于人工智能可能对人类造成的灾害性影响的报告。
该报告呼吁美国政府进行“紧急”干预,以限定人工智能带来的风险。
该报告基于一年来对200多人的采访,个中包括顶级人工智能公司的高管、网络安全研究职员、大规模杀伤性武器专家和政府国土安全部的官员。

美国***委托撰写的一份新报告概述了不断发展的人工智能造成的“灾害性”国家安全情景,并警告说“韶光不多了”,联邦政府必须立即采纳行动避免灾害。

人工智能可能导致“人类物种灭绝”。_人工智能_申报 云服务

广告

该报告基于一年来对200多人的采访,个中包括顶级人工智能公司的高管、网络安全研究职员、大规模杀伤性武器专家和政府国土安全部的官员。

这份由Gladstone AI本周发布的报告明确指出,在最坏的情形下,最前辈的人工智能系统可能会“对人类物种构成灭绝级别的威胁”。

美国***的一名官员向美国有线电视***网(CNN)证明,该机构编写这份报告是由于它始终如一地办理了人工智能如何与保护美国在国内外利益的目标保持同等。
这位官员强调,该报告不代表美国政府的不雅观点。

报告中的警告再次提醒我们,只管人工智能的潜力连续吸引投资者和"大众,但确实存在危险。

“人工智能已经是一种经济变革性技能。
它可以帮助我们治愈疾病,做出科学创造,并战胜我们认为武断不移的寻衅,“Gladstone AI首席实行官兼联合创始人Jeremie Harris说。
“但它也可能带来我们须要把稳的严重灾害性风险。

哈里斯说:“越来越多的证据,包括在环球领先的人工智能会议上提出的实证研究和剖析,表明超过一定的能力阈值,人工智能可能会变得无法掌握。

白宫发言人罗宾·帕特森(Robyn Patterson)表示,乔·拜登总统关于人工智能的行政命令是“天下上任何政府为管理人工智能风险而采纳的最主要行动”。
“总统和副总统将连续与我们的国际伙伴互助,并敦促国会通过两党立法,以管理与这些新兴技能干系的风险,”帕特森说。

《时期》杂志是第一家发布格莱斯顿人工智能报告的出版物。

“明确而急迫须要进行干预”

研究职员警告说,人工智能带来的两个紧张危险。

首先,Gladstone AI表示,最前辈的人工智能系统可以变成可能造成不可逆转危害的武器。
其次,报告称,人工智能实验室内部存在担忧,即在某个时候,他们可能会“失落去对自己系统的掌握”,从而“对环球安全造成潜在的毁灭性后果”。

“人工智能和AGI(天生式人工智能)的发展有可能以让人想起核武器起源的办法毁坏环球安全的稳定,”报告说,并补充说,存在人工智能“武备竞赛”的风险,冲突和大规模杀伤性武器(大规模杀伤性武器)规模的致命事件。

格莱斯顿人工智能报告呼吁采纳新的方法来应对这一威胁,包括成立一个新的人工智能机构,以履行“紧急”安全方法,并限定许可演习人工智能模型的打算能力水平。

“美国政府显然急迫须要进行干预,”该报告的作者写道。

安全问题

Gladstone AI首席实行官哈里斯表示,他的团队对公共和私营部门官员的“前所未有的访问水平”导致了令人惊异的结论。
Gladstone AI 表示,它已经与 OpenAI、谷歌的 DeepMind、Meta 和 Anthropic 的技能和领导团队进行了交谈。

“一起走来,我学到了一些严明的东西,”哈里斯说。
“在幕后,与人工智能可能很快带来的国家安全风险比较,人工智能的安全和安保彷佛微不足道。

格莱斯顿人工智能报告称,“竞争”压力迫使公司以捐躯“安保和安全”为代价加速人工智能的发展,从而增加了最前辈的人工智能系统被“盗取”并“转换”成武器用于对付美国的风险。

该报告的调查结果增加了越来越多的人工智能风险警告。

大约一年前,被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)退出了谷歌,并谈到了他自己开拓的技能。
Hinton说,人工智能在未来三十年内导致人类灭绝的可能性为10%。

Hinton和其他数十名人工智能行业领袖、学者和其他人在6月签署了一份声明,称“减轻人工智能灭绝的风险该当是环球优先事变”。

商界领袖越来越担心这些危险——只管他们在人工智能上投资了数十亿美元。

去年,在耶鲁大学峰会上接管调查的高管中,有42%的人表示,“人工智能有可能在5到10年后摧毁人类。

人工智能的人类学习能力

在报告中,Gladstone AI提到了一些对人工智能生存风险发出警告的最有名人士,包括埃隆·马斯克(Elon Musk)、联邦贸易委员会主席莉娜·汗(Lina Khan)和OpenAI的前高管。

根据Gladstone AI的报告,人工智能公司的其他员工也同样担心,但私下里也是如此。

“来自一个非常受欢迎的人工智能实验室的人。
报告称,如果一个最前辈的特定人工智能模型是开放获取的,那么这将是“令人震荡的糟糕”,由于如果这种模型干预选举和操纵选票,它的说服力可能会'摧毁民主'。

格莱斯顿说,他哀求紧张实验室的人工智能专家匿名分享他们对人工智能在2024年导致“不可逆转的环球影响”的可能性的个人估计。
根据该报告,估计范围从4%到20%不等。
报告指出,这些估计是非正式的,可能有偏见。

最大的担忧之一是人工智能的发展速率,尤其是AGI(天生式人工智能),它是人工智能的一种假设形式,具有人类或“超人”的学习能力。

该报告指出,AGI被视为“可能导致灾害性失落控风险的紧张驱出发分”,并指出OpenAI、谷歌的DeepMind、Anthropic和Nvidia已经公开表示,AGI的全部潜力可以在2028年之前实现,只管其他人认为末了期限要迢遥得多。

Gladstone AI指出,在这方面的不合可能会使制订法律和安全方法变得更加困难,并且如果该技能的发展速率比最初想象的要慢,“监管可能会造成危害”。

人工智能如何与人为难刁难

Gladstone AI揭橥的一份类似文件警告说,开拓AGI“将带来美国以前从未面临过的灾害性风险”,类似于大规模杀伤性武器带来的风险。

例如,报告称人工智能系统 可用于设计和履行“能够摧毁关键根本举动步伐的高影响力网络攻击”。

报告称:“一个大略的口头或书面命令,如'实行无法识别的网络攻击,使北美电网崩溃',可能会产生如此高质量的反应,乃至会造成灾害。

对闹事者的其他担忧包括人工智能支持的大规模虚假信息活动,这些活动可能会毁坏社会稳定并侵蚀对机构的信赖;武装机器人运用进行无人机攻击;生理操纵;武装生物和材料科学;以及无法掌握且对人类构成威胁的寻求权力的人工智能系统。

“研究职员担心人工智能系统足够前辈,可以防止它们被关闭,”报告说。
“由于如果一个人工智能系统被关闭,它就无法实现它的目标。
罗华***社