维基百科对智能有如下定义:

今天的人工智能是怎么成长起来的?_神经收集_人工智能 文字写作

智能是一种能够感知或推断信息,并将其作为知识留存下来,自适应地用于某种环境或高下文的能力。

人工智能(Artificial Intelligence)

虽然我们很难对人工智能做一个确切的阐明,但可以从查尔斯巴贝奇的剖析机讲起。
它虽然没有任何分外的“自适应”能力,但却非常灵巧。
遗憾的是,理论上虽然完美,但却没有得以实现。

巴贝奇剖析机早图灵机50年旁边涌现。
从理论上讲,它能够将任何可打算的函数作为输入,并在完备机器的情形下产生输出。

繁芜性理论(complexity theory)由此得以发展,同时人们也意识到构建通用打算机实在相对大略。
此外,算法的实现也加倍多样。
只管还存在一些技能上的寻衅,但在过去的70年中,相同价格可购买到的打算量大约每两年翻一番。

也便是说,构建打算力强大的人工智能系统加倍随意马虎。
然而,这受到了所供应或输入的数据,以及处理韶光的限定。
可以做如下思考:如果每台打算机的能力都受到数据和韶光的限定,我们还能称之为智能打算机么?

下面我们大略回顾一下人工智能的发展史。
人类的智能紧张包括归纳总结和逻辑演绎,对应着人工智能中的联结主义(如人工神经网络)和符号主义(如吴文俊方法)。
符号主义认为智能是基于逻辑规则的符号操作;联结主义认为智能是由神经元构成的信息处理系统。
其发展轨迹如下图所示:

联结主义,即“橙色阵营”在一开始处于领先地位,得益于其与神经科学和人类大脑之间的关系。
人类大脑被视为“强AI(Strong Artificial Intelligence)”和“通用人工智能(Artificial General Intelligence,AGI)”唯一的成功运用。
然而,第一代神经网络在处理实际问题时屡屡受挫。
由于神经网络多数是线性的,并且能力十分有限,深受外界质疑。
与此同时,符号主义,即“蓝色阵营”利用严谨的数学理论创造出了更多有用的东西。

随着手工知识的积累,输入或输出数据量连忙增长,系统的性能无法适应需求,联结主义逐渐衰败。
就好比法律,专家制订出再完备的规则都有可能相互冲突,此时便须要越来越多的“法官”来办理这些问题。
这减缓了联结主义的发展。

后来,“橙色阵营”获取了足够的标签数据和打算资源,能够在可接管的韶光内对网络进行“演习”,天下各地的研究学者开始进行大量试验。
只管如此,联结主义仍花费了大量的韶光使大众重新信赖神经网络,开拓职员也花了较长才适应了模糊逻辑和统计的观点。

在对人工神经网络进行详细谈论前,本文将先先容一些其它方法:决策树、概率模型、进化算法。

决策树(Decision Tree)是最大略有效的算法之一。
其“学习”是通过顺序地遍历数据的每个属性并找到对特定输出具有最大预测能力的属性来实行的。
像随机森林这样的高等变体利用了更繁芜的学习技能,并在同一个模型中组合多个树,它们的输出是通过“投票”得到的,这与人类的“直觉”类似。

概率模型(Probabilistic models)是统计方法的代表。
概率模型与神经网络常共享架构、学习/优化过程乃至符号。
但是概率模型大多受概率逻辑(常日是贝叶斯)的约束,而神经网络则无此约束。

进化算法(Evolutionary computation)最初是受到生物进化的启示,且以随机突变温柔应度为主。
由于修正常日是随机的,其限定噪声的效果突出。
进化算法是一种勾引式搜索,许多方面与退火过程类似。

上述方法有一个共同点:它们从较差的策略开始,逐渐对其改进,以期在某种性能评估方法中取得更好的分数。

如今,机器学习技能,尤其是深度学习正在主导人工智能的发展。
与大多数利用1到2个中间抽象层(所谓的浅模型)机器学习方法不同,深度学习可能包含数百乃至数千个堆叠的可演习层。

研究学者认为对这样的深度网络进行演习,须要全新的优化程序。
事实证明,利用梯度低落的逆向传播(即链式法则)即可很好的进行演习,也可利用Adam或RMSProp。

神经网络演习流程如下:

1、 获取输入

2、 打算输出

3、 评估性能

4、 调节参数

5、 重复演习,至性能最优

梯度低落法只需调度参数使偏差最小。
但该方法随意马虎使网络陷入局部最优,而没有得到最优性能。
然而,最新研究表明许多神经网络已经能够获取全局最优解。

深度学习实现了演习的并行化,即分布式学习。
能在同一韶光跨多台机器演习相同的体系构造,同时实现梯度交流,加速超过1000倍。

此外,经由演习的网络可以处理相似的任务,即迁移学习,这也是人工神经网络广泛盛行的主要缘故原由。
例如,经由图像分类演习的网络可以用于其他打算机视觉任务,自然措辞处理和其他领域。
更主要的是,同一个网络还可以用来办理不同模式的问题。

强化学习(Reinforcement Learning,RL)则将它们结合在了一起。
RL的最初想法来自行为生理学,科研职员探究了在行为生理学中褒奖如何影响学习和塑造动物的行为。

RL并不须要涌现精确的输入/输出对,也不须要精确校正次优化的行为。
举个例子,我们并不须要教会机器人如何精确移动,只需根据它走多远或多快对其进行褒奖,它会自己找出精确的路线。
然而,这种演习模式在实践中也是最具寻衅性的,纵然是相对大略的任务,常日也须要付出大量的努力才能精确设置。

在实际问题中,常日很难在环境中指定褒奖,研究职员目前更多地关注内部褒奖模型。

与RL并行的是逆向强化学习(Inverse Reinforcement Learning):当完成繁芜的任务时,强化学习的回报函数很难指定,我们希望有一种方法能够找到高效且可靠的回报函数,这种方法便是逆向强化学习。

通用人工智能中一些框架来自于严格的数学理论,一些受神经元回路的启示,还有一些基于生理模型。
本文将以HTM、AIXI、ACT-R和SOAR为例进行先容。

层级实时影象算法 (Hierarchical Temporal Memory,HTM),HTM算法旨在仿照新大脑皮层的事情事理,将繁芜的问题转化为模式匹配与预测。
它强调对“神经元”进行分层级,以及信息模式的空间特性与韶光特性。

稀疏分布表示(Sparse Distributed Representation, SDR)是HTM算法中的一个主要观点。
实际上,它只是拥有几千个元素的位数组。
就像大脑中的信息总是通过亿万神经细胞中的小部分生动细胞来表示一样,HTM利用稀疏分布表示语义干系的输入。

HTM算法中的抑制(Inhibition)类似于批规范化和其他一些正则化技能,提升(Boosting)在机器学习中已经是一个相对较老的观点,层次构造(Hierarchical Structure)并没有真正的大脑皮层的构造灵巧。
HTM对物体间关系的重视程度低,乃至连稀疏分布表示也可以用普通神经网络构建。
总体来说,HTM须要进行大量调度才能获取与其它机器学习算法相称的性能。

接下来先容AIXI,它是一个对通用人工智能的理论上的数学形式化表示。
然而,它有一个显著的缺陷——无法计算。
事实上,许多机器学习算法均不能精确打算,只能做近似处理。
AIXI表示如下:

AIXI的核心是一个强化学习智能体,在诸多方面与Schmidhuber开拓的Godel Machine类似。
然而,它们都是AGI的描述性模型,繁芜程度高,无法实行,但不可否认,它们都是人工智能研究职员的灵感源泉。

相反,ACT-R,即理性思维的自适应掌握系统 (AdaptiveControl of Thought—Rational),它不仅是一种理论,而且是一种用LISP编写的软件框架。

ACT-R紧张关注不同类型的内存,较少关注个中数据的转换。
该理论试图理解人类如何得到和组织知识以及如何产生智力活动,其研究进展基于神经生物学研究成果并从中得以验证,且已成功地为许多不同认知征象建立起合理的模型。
然而,它在实际运用中并未取获胜利,终极只作为研究职员的工具。
SOAR与ACT-R有着相似的根源和基本假设,但它更关注于实现AGI,而不是建立人类认知的模型。

ACT-R和SOAR是人工智能符号主义的经典代表,在认知科学的发展中起到了主要浸染,但是运用它们比较当代联结主义须要更多的配置和先验知识。
此外,神经影像和其他用于心智研究的工具加倍详细和准确,而且ACT-R和SOAR在某一定程度上过于僵化,无法保持干系性。

作者信息

Egor Dezhic

本文由阿里如斯栖社区组织翻译。

文章原标题《What is Intelligence?》,译者:Elaine,审校:袁虎。