超级人工智能会狙击人类吗?_模子_人工智能
一些研究结果指向了“呈现”征象,即人工智能模型以一种骤然且不可预测的办法得到了智能。但最近一项研究将这种情形称为“海市蜃楼”,即系统测试过程中产生的假象,并认为创新能力的增强是循规蹈矩的。
研究职员近日在美国新奥尔良举行的神经信息处理系统大会(NeurIPS)机器学习会议上报告了这项事情。
“我认为他们在说‘没有什么神奇的事情发生’方面做得很好。”谋智基金会研究人工智能审计的打算机科学家Deborah Raji说,这是“一个非常好的、坚实的、基于衡量的评估”。
人们常日利用大量文本或其他信息演习大型措辞模型,并通过预测接下来发生什么天生现实的答案。纵然没有受过明确的演习,它们也能翻译措辞、办理数学问题、写诗或编写打算机代码。
模型越大——有些模型的可调参数超过了1000亿,性能就越好。一些研究职员疑惑,这些工具终极将实现通用人工智能,从而在大多数任务中与人类匹敌,乃至超过人类。
这项新研究从几个方面考验了“呈现”的说法。在一种方法中,研究职员比较了人工智能公司OpenAI的4种规模的GPT-3模型的4位数相加的能力。从绝对精度来看,第三种和第四种模型的性能差异从靠近0%到靠近100%不等。但如果考虑答案中精确预测的数字数量,这种趋势就不那么极度了。
研究职员还创造,可以通过给模型更多测试问题来抑制曲线。在这种情形下,规模较小的模型有时会作出精确的回答。
接下来,研究职员不雅观察了谷歌公司的LaMDA措辞模型在几个任务中的表现。那些表现出明显智能跃升的模型,比如在识别讽刺或翻译谚语方面,常日面对的是答案为对或错的多项选择任务。相反,当研究职员检讨模型在每个答案上的概率时,“呈现”的迹象消逝了。
末了,研究职员转向了打算机视觉,这一领域“呈现”的说法较少。他们演习模型压缩然后重修图像。仅仅通过为精确性设定一个严格的阈值,他们就可以勾引明显的“呈现”征象。
新研究互助者、美国斯坦福大学打算机科学家Sanmi Koyejo表示,考虑到一些系统表现出溘然的“相变”,人们接管“呈现”的想法并非没有道理。他还指出,这项研究不能在大型措辞模型中完备打消这种可能性,更不用说在未来的系统中了。
“迄今为止的科学研究有力地证明,措辞模型的大多数方面确实是可预测的。”Koyejo补充道。
这项研究还对人工智能的安全和政策产生了影响。Raji说:“通用人工智能的支持者一贯在利用新兴能力的说法。毫无根据的恐怖可能导致令人窒息的监管,或者转移人们对更紧迫风险的把稳力。”
“这些模型正在改进,且改进是有用的。”Raji说,“但它们还没有靠近意识。”(王方)
来源: 中国科学报
本文系作者个人观点,不代表本站立场,转载请注明出处!