旷视王银学:人工智能若何造福物盛行业?_物流_人工智能
人工智能,这一新兴技能正在物盛行业推广运用。人工智能物流市场是若何的规模?旷视副总裁王银学给出的数据是:2025年能到100亿。
王银学是物流自动化方面的老兵,之前他是京东亚洲一号的卖力人,而今他是“最懂物盛行业的AI公司”旷视的副总裁。对付物流技能发展趋势,他有着独到的见地。今年1月,在物流指闻举办的洞见2021暨第四届中国物流与供应链驱动者年会上,王银学在揭橥以《AI推动物流数智化再升级》为主题的演讲。在演讲中,王银学剖析了聪慧物流驱动要素、物流自动化发展趋势、AI+物流市场概况以及AI+物流实践探索创新。
在王银学看来,我国物流数智化同发达国家比较仍有不敷,纵然在20%的高增速下,再升级空间仍旧巨大。从物流环节看,AI在仓储、运输环节运用较多,仓储和运输占比超80%;从种别看,烟草、医药、汽车行业自动化率领先。
就趋势而言,王银学表示,随着物流场景越来越大,物流如约系统更加繁芜,智能设备、子系统越来越多,传统的技能已无法应对,系统须要足够的算法和算力,简而言之物流须要更加智能化。单就物流自动化而言,王银学快要况与趋势总结为了四个词:大发展新阶段、马太效应、自由状态、少人化。
在演讲中,王银学还以旷视为例,分享了AI+物流实践探索创新。
以下为其演讲全文(经指闻删减整理):
前面黄刚提到,没有商流的物流将无物可流;我要说的是,没有物流的商流将无商可经。
回到本日禀享的紧张内容。拿数据说话,社会物流总额的增速低于GDP,这里的社会物流总额是一次测的,第一次发卖产生交易的算里边,如果二次发卖的话就不算里边了。低于GDP的增速解释什么问题?解释技能和智力上占比是提高的,由于有那么多物的移动,产生了那么多的GDP,但社会物流增速低于GDP增速,这解释用技能、智力的办法办理了。
最近十年聪慧化物流这个市场的增速保持在20%,是持续高速增长的态势。聪慧化物流市场2020年的数据还没出来,相信2020年这个市场增速该当还是相称高。
虽然保持这么高速的增长,但我们看看后劲——20%,这个数字不是特殊准,但没有特殊准的数字,数据也只能解释大致的趋势。但是这的确解释,中国物流自动化和欧美的差距还是特殊大。相差四倍,但也解释还有很大的增长空间。
01
AI+物流市场概况
我现在不敢说人工智能物流是一定是主导的,但是人工智能物流至少一定是智能物流细分的一个板块。2025年人工智能物流市场大概能到100亿的规模。100亿规模是什么观点?现在中国自动化物流的市场大概在1700亿-2000亿,人工智能物流占比超过5%。
人工智能技能在物流的运用,分为两大块。一个是在仓库里面,一个是在运输的环节。仓储环节更多一点,由于仓储是在四堵墙内,好管理,离开库房之后可能就不太可控了,以是仓储环节占了42.8%,运输环节低一点,38.4%,客服、配送比例更低。
挑当中几点看一看,比如移动机器人的运用,已经开始爆发期的增长。这里的仓储不仅仅是流利环节的仓储,还包括生产真个,工厂的成品入库或者前端原材料的物流。我2019年拉了一个数据,机器人搬运占频年夜概是在5%不到,昨天我把数据又拉了一下,占比已经到9.8%了,将近翻番的。
1.聪慧物流驱动要素
我们已经进入聪慧物流的新时期,从几个要向来看:
技能:不管聪慧还是智能,终极还是靠技能来支撑。可以看到,无线网络、电池技能,让更多的机器人离线了,更自由了。
市场要素:需求的个性化,特殊像现在的直播电商。需求更零星了,实行系统就须要更自由的物流系统。
社会要素:80后搬箱子搬不过70后,而且90后、00后也不喜好搬箱子。但是物流环节当中35%以上的劳力是在搬箱子,不管仓储员工还是快递员,都要搬箱子。现在劳动力本钱也上升了,加上疫情影响,的确加速了聪慧物流的速率。70后搬箱子肯定搬不过机器人。
政策层面:最近国家在进行十四五物流板块的方案,我也在参与并把人工智能物流写进去了,不知道末了会不会被采纳。但从政策层面来说,国家已经明确了构建当代物流体系。当代物流体系,除了管理方面,终极还是须要技能来支撑。
2.物流须要更加智能化
现在物流场景是规模越来越大的,二十多年前我做的项目,超过一万平米的我都以为很幸福,觉得项目很大。前两年,我交付过五六十万平米的项目,我参与方案过一个5平方公里的项目,一个园区便是500万平方米。可以说,现在规模越来越大了,大到了规模不经济,这就须要我们要有些新的技能来办理。
再来看看海量的业务。现在电商的直播,包括库播等等模式出来之后,我创造物流没跟上,还没有太好的办法应对。还有逆向物流,现在很多物流场景,正向做的很好,但逆向本钱非常高。
这一系列成分就使得物流如约系统越来越繁芜。子系统和子系统怎么样打通?常规的调度系统已经无法驾驭了,这就须要足够的算法算力支撑。
3.趋势总结
总结一下:
第一还是大发展的阶段。前面提到,中国物流自动化的比例和发达国家还是差很远的。
第二马太效应。和互联网行业很像,厉害的越厉害,这一点2020年特殊明显。2020年海内几个大的集成商和物流装备商业绩都创了记录。有的货架厂家2020年前九个月已经签了17亿的单子,而在以往超过10个亿古迹已经算很好的了。
第三自由状态。这是我最近提出来的新名词,物流系统会进入到一个自由的状态,能在多维度多空间运行。新的设备层出不穷,技能也在不断提高。
第四少人化。现在技能水平,据我所知,完备替代手的自动扮装备还没有,但现在库房里面有很多设备在模拟手部那个动作。总的来说,除了实在替代不了的地方,别的地方都已经实现无人化了。
2020年已经由去了,它是AI+物流的元年。去年10月15日旷视也发起成立了中国人工智能物流家当同盟,参加的企业大概多。解释海内头部企业,不管用户还是物流集成商,都看年夜大好人工智能的未来。
02
AI+物流实践探索创新
这是旷视的自研设备,可以看到各种各样的智能物流设备越来越多了。
举几个例子,旷视基于已有的AI技能,做激光+视觉的多维度点云阵列的领悟,这有什么好处?由于现在物流系统越来越大,搬运间隔越来越远,基于各种各样的传统定位,间隔远了之后搬运机器人就跑偏了,找不到自己在哪里,把这两种技能结合起来它才能改动。此外,把视觉和激光结合起来,两百米的深度能够做到两厘米感知的精度,这对堆垛机这种场景来说是够用的。
除此之外,基于智能无感称重的偏载技能也特殊管用。现在很多场景用的都是AGV搬运货架,上架的时候是均匀分布的,拣货的时候是人就比来拣导致偏载,如果有偏载AGV会自动感应会提醒偏载了。
在物流场景当中,绝大部分到货之后的卸货,是送货的人来卸货,组盘的时候特殊随意马虎弄错。我们用视觉识别,图像分割的办法,不须要事先采集任何数据,如果数量错了它就见告你这个地方错了。这个时候送货的人可能还没走,就可以及时把这个问题办理。
还有箱子破损,也特殊随意马虎发生,一样平常超过2公分的洞能通过视觉识别创造的,太小的可能创造不了。这里堆垛机载货台安装了3D摄像头,随时巡视,随时盘点。入库的时候拍张照片,如果没有出过库的,中间少一箱会创造。当有非常的时候,我们会让堆垛机速率降下来,逐步取出来。这款产品特殊适宜对安全性哀求高的企业。
旷视河图系统在做的是将机器人与物流、生产业务快速集成,办理从方案、仿真、履行,到上线之后的运营的全流程,环绕旷视的核心AI能力通过物联网技能连接物流各环节。旷视这套河图系统,能够将不同类型的机器人凑集在一起统一调度,还是很有寻衅性的。举个大略的例子,AGV能够和电梯通讯,我们以为是很大略的事情,但能够把这个打通的不多,由于电梯厂家不开放接口。物流系统当中,把仿真系统和运营系统做到一起,现在还没有谁敢这么做,我们想未来把这个做成。届时,现实当中出了什么问题,在数字系统、虚拟系统当中就会涌现。
这是一个服装企业案例,这是我经历过的所有项目当中,自动化程度最高的。客户对ROI特殊关注。按照原来的模式,它大概须要九百多个人,我们上了这些机器人之后,大概只须要三百多个人。这里面运用了有十几种机器人,码托盘、拆托盘基本都是机器臂,险些所有产品都实现了货到人。
这是医药图像识别复核的案例。药品是分外商品,是一定要核对干系信息的,尤其是生产日期、生产批号、失落效日期等关键字段。大家可以看看右上角的图片,是26号还是28号,还是20号?很多人第一眼是看不清楚的,但AI识别出来了,在2020年中的时候,我们识别的准确率已经超过80%了,最近更高了,由于人工智能的算法有个很好的地方便是一直调优,准确率一贯在往上走。
这是轮胎的案例,轮胎有个老化问题,以是大的轮胎经销企业会哀求轮胎出厂超过多少个星期是不许可入库的,超过多少个星期是不许可出库的。而且轮胎还有一个特点,储存环境特殊恶劣,橡胶味道特殊差,但现在都靠人工。然而现在往输入机上一放,通过视觉识别很随意马虎实现甄别。现在实验室环境已经通过验证了,正在实际场景验证中。
这个更故意思,是果冻的识别。去年旷视给一家做果冻的企业做自动化办理方案。做着做着他们创造旷视的人工智能图像识别技能特殊牛,就找我们办理。果冻里一定不能有杂质,如果果冻中有较大的气泡也属于不合格。怎么做?把果冻翻过来,强光照射,靠人眼来看,但在强光照射下,韶光长了人的眼睛会疲倦。现在他们用机器视觉的办法来识别,大的气泡能识别,黑点也能识别,这已经在一条产线上测试完了,未来会运用在更多的产线上。
这是我分享的几个例子,有流利物流环节的,有生产物流环节的。人工智能技能在物流当中运用,不仅仅是算法、算力、调度,还有机器视觉识别,当然还有些其他的技能也可以在物流当中运用。我也希望有更多的专家参与到个中,一起把人工智能技能运用推广开来。旷视的愿景是用人工智能造福大众,同样我们也想用人工智能造福物盛行业。
来源/物流指闻(ID:wuliuzhiwen)
本文系作者个人观点,不代表本站立场,转载请注明出处!