关于人工智能在当今科技界的发展水平,学术界、家当界和媒体界可能会有不同的意见。
我常常听到的一个说法是:现在基于大数据与深度学习的人工智能是一种完备新颖的技能形态,它的涌现能够全面地改变未来人类的社会形态,由于它能够自主进行“学习”,由此大量取代人类劳力。

世界人工智能成长究竟到了什么水平_神经元_体系 智能助手

我认为这里有两个误解:第一,深度学习并不是新技能;第二,深度学习技能所涉及的“学习”与人类的学习并不是一回事,由于它不能真正“深度”地理解它所面对的信息。

深度学习不是新技能

从技能史角度看,深度学习技能的前身,实在便是在20世纪80年代就已经热闹过一阵子的“人工神经元网络”技能(也叫“连接主义”技能)。

该技能的本色,是用数学建模的办法建造出一个大略单纯的人工神经元网络构造,而一个范例的此类构造一样平常包括三层:输入单元层、中间单元层与输出单元层。
输入单元层从外界得到信息之后,根据每个单元内置的汇聚算法与引发函数,“决定”是否要向中间单元层发送进一步的数据信息,其过程正如人类神经元在吸收别的神经元送来的电脉冲之后,能根据自身细胞核内电势位的变革来“决定”是否要向其余的神经元递送电脉冲。

须要把稳的是,无论全体系统所实行的整体任务是关于图像识别还是自然措辞处理,仅仅从系统中单个打算单元自身的运作状态出发,不雅观察者是无从知道干系整体任务的性子的。
毋宁说,全体系统实在因此“化整为零”的办法,将宏不雅观层面上的识别任务分解为了系统组成构件之间的微不雅观信息通报活动,并通过这些微不雅观信息通报活动所表示出来的大趋势,来仿照人类心智在符号层面上所进行的信息处理进程。

工程师调度系统的微不雅观信息通报活动之趋势的基本方法如下:先是让系统对输入信息进行随机处理,然后将处理结果与空想处理结果进行比对。
若二者吻合度不佳,则系统触发自带的“反向传播算法”来调度系统内各个打算单元之间的联系权重,使得系统给出的输出与前一次输出不同。
两个单元之间的联系权重越大,二者之间就越可能发生“共引发”征象,反之亦然。
然后,系统再次比对实际输出与空想输出,如果二者吻合度依然不佳,则系统再次启动反向传播算法,直至实际输出与空想输出彼此吻合为止。

完成此番演习过程的系统,除了能够对演习样本进行准确的语义归类之外,一样平常也能对那些与演习样本比较靠近的输入信息进行相对准确的语义归类。
譬如,如果一个别系已被演习得能够识别既有相片库里的哪些相片是张三的脸,那么,纵然是一张从未进入相片库的新的张三照片,也能够被系统迅速识别为张三的脸。

如果读者对付上述技能描述还似懂非懂,不妨通过下面这个比方来进一步理解人工神经元网络技能的运作机理。
假设一个不懂汉语的外国人跑到少林寺学武术,师生之间的传授教化活动该如何开展?有两种情形:第一种情形是,二者之间能够进行措辞互换(外国人懂汉语或者少林寺师傅懂外语),这样一来,师傅就能够直接通过“给出规则”的办法教授他的外国徒弟。
这种教诲方法,或可勉强类比基于规则的人工智能路数。

另一种情形是,师傅与徒弟措辞完备不通,在这种情形下,学生又该如何学武呢?唯有靠如下办法:徒弟先不雅观察师傅的动作,然后随着学,师傅则通过大略的肢体互换来见告徒弟,这个动作学得对不对(譬如,如果对,师傅就微笑;如果不对,师傅则棒喝徒弟)。
进而,如果师傅肯定了徒弟的某个动作,徒弟就会记住这个动作,连续往放学;如果不对,徒弟就只好去预测自己哪里错了,并根据这种预测给出一个新动作,并连续等待师傅的反馈,直到师傅终极满意为止。
很显然,这样的武术学习效率是非常低的,由于徒弟在胡猜自己的动作哪里出错时会摧残浪费蹂躏大量的韶光。
但“胡猜”二字正好切中了人工神经元网络运作的本色。
概而言之,这样的人工智能系统实在并不知道自己得到的输入信息到底意味着什么——换言之,此系统的设计者并不能与系统进行符号层面上的互换,正如在前面的例子中师傅是无法与徒弟进行言语互换一样。
而这种低效学习的“低效性”之以是在打算机那里能够得到容忍,则缘于打算机比较于自然人而言的一个巨大上风:打算机可以在很短的物理韶光内进行海量次数的“胡猜”,并由此挑选出一个比较精确的解。
一旦看清楚了里面的机理,我们就不难创造:人工神经元网络的事情事理实在是非常笨拙的。

“深度学习”该当是“深层学习”

那么,为何“神经元网络技能”现在又有了“深度学习”这个后继者呢?这个新名目又是啥意思呢?

不得不承认,“深度学习”是一个带有迷惑性的名目,由于它会诱使很多生手认为人工智能系统已经可以像人类那样“深度地”理解自己的学习内容了。
但真实情形是:按照人类的“理解”标准,这样的系统对原始信息最肤浅的理解也无法达到。

为了避免此类误解,笔者比较附和将“深度学习”称为“深层学习”。
由于该词的英文原文“deeplearning”技能的真正含义,便是将传统的人工神经元网络进行技能升级,即大大增加其隐蔽单元层的数量。
这样做的好处,是能够增大全体系统的信息处理机制的细腻度,使得更多的工具特色能够在更多的中间层中得到安顿。

比如,在人脸识别的深度学习系统中,更多的中间层次能够更为细腻地处理低级像素、色块边缘、线条组合、五官轮廓等处在不同抽象层面上的特色。
这样的细腻化处理办法当然能够大大提高全体系统的识别能力。

但须要看到,由此类“深度”化哀求所带来的全体系统的数学繁芜性与数据的多样性,自然会对打算机硬件以及演习用的数据量提出很高的哀求。
这也就阐明了为何深度学习技能在21世纪后才逐渐盛行,正是最近十几年以来打算机领域内突飞年夜进的硬件发展,以及互联网遍及所带来的巨大数据量,才为深度学习技能的落地着花供应了基本保障。

但有两个瓶颈阻碍了神经元网络-深度学习技能进一步“智能化”:

第一,一旦系统经由演习而变得收敛了,那么系统的学习能力就低落了,也便是说,系统无法根据新的输入调度权重。
这可不是我们的终极空想。
我们的空想是:假定由于演习样本库自身的局限性,网络过早地收敛了,那么面对新样本时,它依然能够自主地修订原来形成的输入-输出映射关系,并使得这种修订能够兼顾旧有的历史和新涌现的数据。
但现有技能无法支持这个看似伟大的技能设想。
设计者目前所能够做的,便是把系统的历史知识归零,把新的样本纳入样本库,然后从头开始演习。
在这里我们无疑又一次看到了让人不寒而栗的“西西弗斯循环”。

第二,正如前面的例子所展现给我们的,在神经元网络-深度学习模式识别的过程中,设计者的很多心力都花费在对付原始样本的特色提取上。
很显然,同样的原始样本会在不同的设计者那里具有不同的特色提取模式,而这又会导致不同的神经元网络-深度学习建模方向。
对人类编程员来说,这正是表示自己创造性的好机会,但对付系统本身来说,这即是剥夺了它自身进行创造性活动的机会。
试想:一个被如此设计出来的神经元网络-深度学习构造,能够自己不雅观察原始样本,找到得当的特色提取模式,并设计出自己的拓扑学构造吗?看来很难,由于这彷佛哀求该构造背后有一个元构造,能够对该构造本身给出反思性的表征。
关于这个元构造应该如何被程序化,我们目前依然是一团雾水——由于实现这个元构造功能的,正是我们人类自己。
让人失落望的是,只管深度学习技能带有这些基本毛病,但目前的主流人工智能界已经被“洗脑”,认为深度学习技能就已经即是人工智能的全部。
一种基于小数据,更加灵巧、更为通用的人工智能技能,显然还须要人们投入更多的心力。
从纯学术角度看,我们离这个目标还很远。

(作者任职于复旦大学哲学学院)