说到表情监测,是不是很快遐想到人脸识别、天网系统、犯罪生理、微表情侦察……可是等等,叫兽承认这些东西都很牛X,但是,这持续串的词语大概只能跟FBI这种机构联系起来,为什么这次搞出表情监测AI的机构竟然是那个拍动画片的迪士尼?

人工智能说你很喜好某部片子整场下来笑了28次……_脸色_迪士尼 智能助手

切实其实吓坏了一众小公举……

不过说到这里,我们也可以理解,在3D动画盛行的本日,迪士尼不好好研究表情,怎么能做出那么多生动角色,光怪陆离的表情变革呢?这也让人不禁想到了迪士尼表情大法的顶峰之作——

厉害了我的迪士尼~

不过说回来,迪士尼的实验室最初研究人脸表情也的确实为了做动画的,AI和机器学习在动画和游戏制作中早就大量利用,但过去为了让动画人物更加真实生动,电影公司碰着大量采集一个真人演员在多种状态下的表情数据,给不同光照和角度,用来演习动画模型的表情捕捉系统。
耗时耗力都是巨大的。

而去年,迪士尼曾揭橥过一个新技能:新技能条件下,事情量被缩减到只须要演员在均匀光照下拍摄70个表情,所得数据就能自动天生虚拟人脸,这一技能大大缩短了演习准备韶光。

均匀光下挤眉弄眼摆表情的真人演员

自动天生的虚拟人物表情

说到这里,大家可能就明白了,一开始说到的那个表情监测系统,说白了也便是迪士尼实验室搞表情捕捉搞出来的一个副产品,但它的浸染可就不大略了:

迪士尼说,他们这套系统将用来检测电影院不雅观众的表情,用来判断不雅观众对一部电影的不雅观感——“好看或者不好看”、“笑没有笑”、“电影第几分钟笑的”。

研发团队通过150部迪士尼电影来网络不雅观众的面部表情数据,然后再把这些天生数据反馈到神经网络中进行演习。
终极做出来的检测系统就能理解不雅观众在不雅观影过程中的感情,乃至还能够预测不雅观众的反应:通过一个十分钟旁边的约热韶光,AI就能充分“理解一个不雅观众”,接下来,它就能预测你在余下的整部电影中会做出何种表情!

不过,人家迪士尼也很谦逊地承认了,目前能够预测的表情只包括笑颜类,惊骇、哭泣等表情暂时还不能预测……

这门技能显然还有更多用武之处,参与这项技能研发的加州理工学院的YisongYue是这么说的:理解人类行为对付开拓更高等的人工智能系统非常主要,有了更高等的行为能力、社交能力,人工智能就能运用到实际中,比如用人工智能去照顾护士老人和不会开口的孩子,通过表情和肢体措辞,机器能够判断他们须要什么。

叫兽承认迪士尼的谦逊很耿直,不过还是认为这项技能发展完备还有很长的道路要走。
首先并不是所有的感情都会通过表情直接显示,如果机器要达到超过人类的察言观色水准,可能就须要大量表情数据积累,得到捕捉人类微表情的超能力;况且,与表情较为夸年夜的西方人比较,我们天朝同胞的表情能力显然是一股来自东方的神秘力量,AI大概会创造某位不雅观看整部爆笑电影的东方不雅观众,全程给出一幅扑克脸,然后转头又在豆瓣上默默给出5星好评……

就算是他们认为已经节制不错的“笑颜类表情”,叫兽也以为出息叵测,难度甚高,毕竟,笑颜类表情可是博大精湛,变幻无穷的。
光微笑都有很多种啊,比如——

咳咳,跑远了赶紧回来。
同样开拓“感情识别技能”的公司Affectiva的联合创始人Ranael Kaliouby说,能够评估不同性别、不同国家的人的面部表情被证明是实现“情绪人工智能”的关键点。
一些表情的含义会因所在地区的不同而有所差异。
比如,Affectiva创造一种“礼节性微笑”并不是“愉快”或“得意”感情的表达,而是东南亚国家和印度社会中一种普遍存在的表情。
但这种礼节性微笑在美洲、非洲和欧洲却并不盛行。

不过,叫兽想,如果真有一天表情识别技能能够成熟,对付千万男同胞来说也是一大福音,毕竟到那天,或许只须要发个视频,AI就能够帮你弄清女票的表情想说啥,而不用像现在这样盯着一个发过来的

,陷入思考的深渊……