当AI实现多责任进修它究竟能做什么?_多个_模子
文 | 脑极体
提到AI领域的多任务学习,很多人可能一下子就想到通用人工智能那里了。普通意义上的理解,就像《超能陆战队》里的大白这样一种照顾护士机器人,既能进行医疗诊断,又能读懂人的感情,还能像陪伴机器人一样完成各种繁芜任务。
不过大白毕竟只是科幻电影当中的产物,现有的AI技能大多还处于单体智能的阶段,也便是一个机器智能只能完成一项大略任务。工业机器人中做喷漆的就只能用来喷漆,做搬运的只能用来搬运;识别人脸的智能摄像头只能进行人脸,一旦人类戴上口罩,那就要重新调度算法。
当然,让单个智能体实现多种任务也是当前AI领域研究的热点。最近,在强化学习和多任务学习算法上成绩最好的是DeepMind公司的一款名为Agent57的智能体,该智能体在街机学习环境(ALE)数据集所有57个雅达利游戏中实现了超越人类的表现。
当然,多任务学习不止用在游戏策略上。相对付现阶段的AI,我们人类才是能够进行多任务学习的高手。我们既不须要学习成千上万的数据样本就可以认识某类事物,我们又不用针对每一类事物都从头学起,而是可以举一反三地节制相似的东西。
AI在单体智能上面确实可以轻松碾压人类,比如可以识别成千上万的人脸;但AI在多任务学习上面就要向人类的这种通用能力看齐了。
什么是多任务学习?
多任务学习(Multi-Task Learning,MTL),大略来说,便是一种让机器模拟人类学习行为的一种方法。人类的学习办法本身便是泛化的,也便是可以从学习一种任务的知识迁移到其他的干系的任务上,而且不同的任务的知识技能可以相互帮助提升。多任务学习涉及多个干系的任务同时并行学习,梯度同时反向传播,利用包含在干系任务演习旗子暗记中的特定领域的信息来改进泛化能力。
(单任务学习和多任务学习的模型比拟示意)
做一个形象的类比。我们知道人类不如虎豹擅跑,不如猿猴擅爬,也不如鲸豚擅游,但是人类是唯独可以同时做到奔跑、攀援和拍浮的。用在人工智能和人类智能上,我们常日认为AI更擅于在单一任务上表现精良并超越人类专家,如AlphaGo一样;而人类则可能在各种任务上都能胜任。
MTL正是要让人工智能来实现人类的这种能力。通过在多个任务的学习中,共享有用的信息来帮助每个任务的学习都得到提升的一个更为准确的学习模型。
这里须要把稳的是多任务学习和迁移学习的差异。迁移学习的目标是将知识从一个任务迁移到另一个任务,其目的是利用一个或多个任务来帮助另一个目标任务提高,而 MTL 则是希望多个任务之间彼此能相互帮助提升。
这里我们就要搞清楚MTL的两个特色:
一、是任务具有干系性。任务的干系性是说几种任务的完成模式是存在一定的关联性的,比如,在人脸识别中,除了对人脸特色的识别,还可以进行性别、年事的估算识别,或者,在不同的几类游戏中识别出共通的一些规则,这种干系性会被编码进 MTL 模型的设计当中。
二、是任务有不同的分类。MTL的任务分类紧张包括监督学习任务、无监督学习任务、半监督学习任务、主动学习任务、强化学习任务、在线学习任务和多视角学习任务,因此不同的学习任务对应于不同的MTL设置。
共享表示和特色泛化,理解MTL 上风的两个关键
为什么在一个神经网络上同时演习多个任务的学习效果可能会更好?
我们知道,深度学习网络是具有多个隐层的神经网络,逐层将输入数据转化成非线性的、更抽象的特色表示。而各层的模型参数不是人为设定的,而是给定学习器的参数后在演习过程中学到的,这给了多任务学习施展拳脚的空间,具备足够的能力在演习过程中学习多个任务的共同特色。
例如在上面的MTL的网络中,后向传播并行地浸染于4个输出。由于4个输出共享底部的隐层,这些隐层中用于某个任务的特色表示也可以被其他任务利用,匆匆使多个任务共同学习。多个任务并行演习并共享不同任务已学到的特色表示,这样多任务信息就有助于共享隐层学到更好的内部表示,这成为多任务学习的关键。
那么MTL是如何产生效果的?
MTL的方法中引入了归纳偏置(inductive bias)。归纳偏置有两个效果,一个是相互促进,可以把多任务模型之间的关系看作是相互先验知识,也称归纳迁移(inductive transfer),有了对模型的先验假设,可以更好的提升模型的效果;其余一个效果是约束浸染,借助多任务间的噪声平衡以及表征偏置来实现更好的泛化性能。
首先,MTL的引入可以使得深度学习减少对大数据量的依赖。少量样本的任务可以从大样本量的任务中学习一些共享表示,以缓解任务数据的稀疏问题。
其次,多任务直接的相互促进,表示在:①多个模型特性相互填补,比如在网页剖析模型中,改进点击率预估模型也同时能促进转化模型学习更深层的特色;②把稳力机制,MTL可以帮助演习模型专注在主要特色上面,不同的任务将为这种主要特色供应额外证据;③任务特色的“窃听”,也便是MTL可以许可不同任务之间相互“窃听”对方的特色,直接通过“提示”演习模型来预测最主要的特色。
再次,多任务的相互约束可以提高模型的泛化性。一方面多任务的噪声平衡。多任务模型的不同噪声模式可以让多个任务模型学到一样平常化的表征,避免单个任务的过度拟合,联合学习能够通过均匀噪声模式得到更好的表征;另一方面,表征偏置。MTL的表征偏好会造成模型偏差。但这将有助于模型在将来泛化到新任务。在任务同源的条件下,可以通过学习足够大的假设空间,在未来某些新任务中得到更好的泛化表现。
行业场景落地,MTL如何办理现实问题
由于MTL具有减少大数据样本依赖和提高模型泛化表现的上风,MTL正被广泛运用到各种卷积神经网络的模型演习当中。
首先,多任务学习可以学到多个任务的共享表示,这个共享表示具有较强的抽象能力,能够适应多个不同但干系的目标,常日可以使主任务得到更好的泛化能力。
其次,由于利用共享表示,多个任务同时进行预测时,减少了数据来源的数量以及整体模型参数的规模,使预测更加高效。
我们以MTL在诸如目标识别、检测、分割等场景为主的打算机视觉的运用为例。
比如脸部特色点检测。由于脸部特色可能会受到遮挡和姿势变革等问题的影响。通过MTL能够提高检测健壮性,而不是把检测任务视为单一和独立的问题。
多任务学习希望把优化脸部特色点检测和一些不同但细微干系的任务结合起来,比如头部姿势估计和脸部属性推断。脸部特色点检测不是一个独立的问题,它的预测会被一些不同但细微干系的成分影响。比如一个正在笑的孩子会伸开嘴,有效地创造和利用这个干系的脸部属性将帮助更准确地检测嘴角。
如上图人脸特色点检测(TCDCN)模型,除了检测特色点任务,还有识别眼镜、笑脸、性别和姿态这四个赞助任务,通过与其它网络的比拟,可以看出赞助任务使主任务的检测更准确。
MTL在不同领域有不同运用,其模型各不相同,办理的运用问题也不尽相同,但在各自的领域都存在着一些特点,除上面先容的打算机视觉领域,还有像生物信息学、康健信息学、语音、自然措辞处理、网络垃圾邮件过滤、网页检索和普适打算在内的很多领域,都可以利用 MTL 来提升各自的运用的效果和性能。
比如,在生物信息学和康健信息学中,MTL被运用于识别治疗靶点反应的特色浸染机制,通过多个群体的关联性剖析来检测因果遗传标记,以及通过稀疏贝叶斯模型的自动干系性特色,来预测阿尔茨海默病的神经成像丈量的认知结果。
在语音处理上的运用。2015年,有研究者在国际声学、语音与旗子暗记处理会议(ICASSP)上分享了一篇《基于多任务学习的深度神经网络语音合成》的论文,提出一种多任务叠层深层神经网络。它由多个神经网络组成,前一个神经网络将其最上层的输出作为下一个神经网络的输入,用于语音合成,每个神经网络有两个输出单元,通过共享两个任务之间的隐蔽层,一个用于主任务,另一个用于赞助任务,从而更好地提升语音合成的准确度。
在网络Web运用程序中,MTL可以用于不同任务共享一个特色表示,学习web搜索中的排名提升;MTL可以通过可扩展分层多任务学习算法,用于找到广告中转换最大化的层次构造和构造稀疏性等问题。
总体上来说,在这些MTL的运用领域中,特色选择方法和深度特色转换方法得到研究者的普遍运用。由于前者可以降落数据维数并供应更好的可阐明性,而后者通过学习强大的特色表示可以得到良好的性能。
MTL正在越来越多的领域作为一种提高神经网络学习能力的手段被广泛运用。这实在正是AI在浩瀚行业实际运用中的常态化场景。
我们可以终极溯源反思一下,人类之以是能够具有多任务学习的灵巧运用的能力,正好是由于所处环境正是处在多特色、多噪声的状况之下,这样一定哀求我们人类必须能够举一反三地进行先验的学习能力的迁移。而如果人工智能仅仅勾留在单体智能上面,为每一类知识或任务都建立一套单独的模型,末了可能仍旧只是一套“人工智障”的机器系统,闹出“白马非马”这类的笑话来。
当AI未来真正既能在交融贯通的方面像人类一样闇练,又能战胜人类认知带宽和一些认知偏见,那通向AGI的前路才可能迎来一丝曙光。当然这条路还相称迢遥。
本文系作者个人观点,不代表本站立场,转载请注明出处!