大年夜数据和人工智能究竟是什么关系?_数据_人工智能
人工智能里面有一部分算法是须要数据的,首先要进去数据,然后才能学习。
比如一个大数据库叫ImageNet,有十几亿张图片,用了这么大量的图片,我们才能演习我们的深度神经网络去做图片中猫猫、狗狗、车辆的识别。
如果没有这些海量的数据,很多机器学习算法是不能用的,像我们现在看***网站它是面向百亿特色,千亿参数,万亿样本,你没有万亿样本就支撑不了百亿特色,你可能要有一个亿的样本才有可能支撑百万特色,而且深度学习是须要海量特色做特色工程的,以是这个时候大数据实际是很多机器学习算法得以能够发展的根本,但是发展到一定程度,有些算法它又溘然分开数据了,比如说我们做增强学习,像早期的阿法狗(AlphaGo),它学了几十万专业棋手之间的对局,它是大师,那它就下得很好,后来的阿法Zero(Alpha Zero),它是自己和自己下棋,反正有规则,以是它的数据实际不是真的数据,是天生出来的,它没有用真实数据,但是它用了增强学习,以是说它末了下得比阿法狗还强。
我以为从大的范畴来说,大数据人工智能肯定是相互增益的,没有人工智能很多数据发挥不了代价,更多时候我们须要人工智能算法才能挖掘大数据的代价,相称于一个是矿,一个是挖掘和提炼矿的这样一个设备和工厂,人工智能是后者,很大程度上有了数据我们才能开拓出数据干系的人工智能算法,但是有些算法和数据无关,大体是这样的关系。
(笔墨整理自东南卫视《中国正在说》节目“大数据时期的中国前景”)
本文系作者个人观点,不代表本站立场,转载请注明出处!