人工智能or人类智能?两位AI威信掀起了最终谈论_人工智能_世界
图丨Facebook 人工智能研究总监 Yann LeCun
在人们的印象中,人工智能与人类在学习上还是有很大的不同。就像一辆由 AI 驱动的自动驾驶汽车可能须要仿照 5 万次的撞树之后,才能知道这种做法是缺点的。但在现实天下中,野外的羚羊面临生存的威胁可没有那么多的试错机会,人类的婴儿从咿呀学语到奔跑活动也不须要经由上百次的考试测验。
这个中的主要差异在于,在强大的打算能力的帮助下,人工智能技能险些可以从零开始学习任何的东西。而人类和动物却不是这样,我们具备天生的认知能力,可以直不雅观地理解很多观点,包括工具、地点或干系事物的凑集,从而直接迅速地创造天下是如何运转的。那么问题来了:随着技能的发展,人工智能是否须要拥有和人类类似的认知能力呢?
作为深度学习技能的威信,LeCun 认为:“从利用大脑重构天下这方面来讲,我们拥有得天独厚的上风,而这是人工智能不论通过设计还是学习都无法达到的。”
不过 LeCun 相信,基于非监督学习技能,人工智能可以在通用人工智能方面取得进展。近期,非监督学习的发展使得机器不再须要大量带标签的数据来进行演习。
LeCun 还指出,当古人工智能的成功在很大程度上正是得益于预先没有供应关于天下运行办法的假设或观点。也便是说,我们不须要利用措辞学家、生理学家或认知科学家供应的知识就可以实现人工智能。因此,他方向于用最大略的人工智能算法构造来坚持这种简约性。他说:“我的任务是只管即便减少先天机制的设置数量,更多地利用我们可以得到的数据让人工智能进行学习。”
然而,Gary Marcus 却不这么想。他承认,非监督的深度学习有可能得到成功。不过他认为,只有通过“比像素更丰富的基本元素和表达方法”来理解天下,非监督的深度学习才有可能成功。
图丨Gary Marcus
Markus 表示:“我们希望人工智能可以像孩子一样,拥有为了理解天下上工具、实体和物理机制而建立起的表达方法和基本元素。”
Markus 期望人工智能科学家更多地借鉴认知科学的知识,开拓更具构造化的算法、表达工具、凑集、地点以及空间连续性等认知观点。他引用了自己以及同事、哈佛大学认知心理学家 Elizabeth Spelke 的研究成果,证明人类的孩子很早就有能力去感知人物、工具、凑集和地点等观点。他的建议是:为何不在人工智能研究中利用同样的方法,通过某种构造去映射类似的观点?
实际上,LeCun 在卷积神经网络上的打破性贡献从某种意义上来讲便是一个例证。它利用更具构造化的方法来减少人工智能所处理信息的数量,帮助人工智能更好地理解天下。“我认为,我们真正须要的是系统性思考和剖析,关注当我们将不同数量的内在机制集成到机器学习系统时会发生什么。”Marcus 说。
LeCun 认为,人工智能的确须要一些构造来帮助理解天下。不过他想要知道,生物的大脑中是存在“单一的学习算法、事理或程序”,或是更像没有潜在组织原则、无意义的“黑客”的凑集。无论是哪一种,人工智能都可以从中受益。
智力的实质便是一种预测能力,由于预测未来本色便是对天下空缺场景的一种添补。基于对已知天下运行办法的理解,人类和动物可以根据知识来补充不完全的信息。正因如此,人类司机不须要撞 5 万次树才知道撞树有生命危险。
“当前短缺一种机制,可以让我们的打算机通过不雅观察天下、与天下互动来学习天下究竟如何运转。毫无疑问,这将是阻碍人工智能进一步发展的最大障碍。”LeCun 说。
以是,LeCun 最大的希望便是,在非监督学习的勾引下,人工智能终极发展出一种能力,可以以类似人类的角度去理解天下的运行办法。他表示:“在我有生之年,如果我们能开拓出智力水平达到猫或老鼠的人工智能,那么我也会非常愉快。”
本文系作者个人观点,不代表本站立场,转载请注明出处!