阿尔特曼是在周四晚间在 X 上发布的一篇文章中宣告这一的,但详细细节并不多。
但它--连同今年 6 月与英国人工智能安全机构达成的类似协议--彷佛意在回嘴 OpenAI 为追求能力更强、功能更强大的天生式人工智能技能而将人工智能安全事情置于次要地位的说法。

OpenAI承诺让美国人工智能安然研究所提前运用其下一个模型_人工智能_阿尔 绘影字幕

今年 5 月,OpenAI 有效地终结了一个研究开拓掌握方法以防止\"大众超级智能\"大众人工智能系统失落控问题的小组。
包括我们在内的一些宣布认为,OpenAI将该团队的安全研究丢在一边,转而推出新产品,终极导致该团队的两位共同卖力人扬-莱克(Jan Leike,现为人工智能初创公司Anthropic的安全研究卖力人)和OpenAI联合创始人伊利亚-苏茨克沃(Ilya Sutskever,已创办自己的安全人工智能公司Safe Superintelligence Inc.)分道扬镳。

为了回应越来越多的批评者,OpenAI 表示将取消暗中阻挡举报的限定性非贬损条款,成立安全委员会,并将 20% 的打算量用于安全研究。
(已终结的安全团队曾被承诺将 OpenAI 20% 的打算量用于其事情,但从未实现)。
阿尔特曼再次承诺将 20% 的打算量用于安全研究,并重申 OpenAI 已于今年 5 月废除了针对新员工和现有员工的非贬损条款。

然而,这些举动并没有安抚住一些不雅观察家--尤其是在 OpenAI 为安全委员会配备了包括阿尔特曼在内的所有公司内部职员之后,最近又将一名高等人工智能安全主管调到了另一个组织。

包括夏威夷民主党人布莱恩-沙茨(Brian Schatz)在内的五位参议员在最近写给阿尔特曼的信中对 OpenAI 的政策提出了质疑。
OpenAI 首席计策官杰森-权(Jason Kwon)本日对这封信做出了回应,他写道,OpenAI\"大众致力于在流程的每个阶段实行严格的安全协议\"大众。

OpenAI与美国人工智能安全研究所达成协议的机遇彷佛有点可疑,由于该公司本周早些时候支持《未来创新法案》(Future of Innovation Act),该法案是参议院提出的一项法案,将授权安全研究所作为一个实行机构,卖力制订人工智能模型的标准和辅导方针。
这些举动加在一起可能会被认为是一种监管俘获的考试测验--或者至少是OpenAI在联邦层面对人工智能政策制订施加影响。

阿尔特曼是美国国土安全部人工智能安全委员会的成员之一,该委员会为美国关键根本举动步伐中\公众安全可靠地开拓和支配人工智能\公众供应建议。
今年,OpenAI 在联邦游说方面的支出大幅增加,2024 年前六个月的支出为 80 万美元,而 2023 年整年的支出为 26 万美元。

美国人工智能安全研究所设在商务部的国家标准与技能研究所内,与包括Anthropic以及Google、微软、Meta、苹果、亚马逊和NVIDIA等大型科技公司在内的公司同盟进行磋商。
该行业组织的任务是根据乔-拜登总统10 月份发布的人工智能行政命令开展事情,包括制订人工智能红队、能力评估、风险管理、安全保障和合成内容水印的辅导方针。