你最想把什么塞入做事器?是AI吗_人工智能_技巧
这是网上一则失落眠人群关于做事器的段子,非常搞笑,却又有着那么一些通情达理。
这也从侧面印证了“做事器”这个观点已经深入民气,无论是打游戏还是平时各种App运用,做事器已经成为IT根本举动步伐的代名词之一。
谈到人工智能与做事器,总是觉得他们所能结合的点非常多。作为近年来确当红小生,人工智能干系运用早已覆盖到我们事情与生活的方方面面。
根据国际数据公司(IDC)发布的《人工智能根本架构市场(2019下半年)跟踪》报告显示,2019年人工智能根本架构市场规模达到20.9亿美元,同比增长58.7%。行业中对付AI的需求越来越高,过去几年,AI打算技能发展非常快,包括CPU/GPU/FPGA和新型AI专用加速芯片技能,有力地支持了AI家当化和AI运用的落地。但面对AI打算新摩尔定律的寻衅(OpenAI: 均匀每3.5个月AI花费算力增长一倍),未来AI打算仍须要在高性能和高效率上做进一步的提升和改进。
一贯以来,做事器都被称为传统数据中央根本架构的“扛把子”,无论是云打算、大数据还是人工智能都离不开它的支持。现如今,面对各式各样的多元化运用,做事器的种类也在不断拓宽,人工智能与做事器的结合也愈发紧密。
二者从运用设计到运维管理都有着非常密切的联系。用户需求上升,从云厂商到硬件厂商都开始大规模推出可以加速人工智能干系运用的做事器产品,其市场规模也在激增。中移动等企业的海量招标订单再次引发了市场的激情亲切。
此外,在做事器的运维管理等方面也在与人工智能展开结合。海量做事器的运维管理一贯都是老大难问题,在智能化的本日交给AI能够极大降落事情量,并且进一步减少误操作几率。让AI去996吧,解放你的双手!
做事器厂商们的一大目标便是:力求将各种新技能“塞入”做事器中,目的在于办理打算能力、功耗、互联性能及管理等方面难题,当然与AI的结合也是如此。
“做事器与AI的结合”,这个命题看上去彷佛比较大,不过却是当前行业运用发展的重点。这次打算杂谈约请到了四家IT领域的专业人士来磋商这个话题,他们都是做事器和打算领域的领军级选手,分别来自于北京超级云打算中央;戴尔科技集团;新华三集团和宝德打算机。从:做事器与AI的结合、实战运用落地、以及新技能探索等方面展开磋商。
让我们跟随业界最前辈的视角,来看看他们眼中的做事器与AI吧!
北京超级云打算中央:
算力是推进AI发展的发动机
那么,在高性能打算方面,对AI怎么看呢?这次我们约请的专家是北京超级云打算中央产品总监AI智算云产品卖力人赵鸿冰博士,他长期从事超级云打算与AI云研发与推广,并参与了E级打算机关键技能验证系统和国家高性能打算环境做事化机制与支撑体系研究等科技部重大专项及国防预研项目。是高性能打算领域的专家。
目前,北京最大的超级云打算中央便是由北龙超云来运营。
赵鸿冰博士认为,数据、算法、算力是AI发展的三大要素,算力是推进AI发展的发动机。从2012年到2019年,最前辈AI模型对打算量的需求已经增长了30万倍,摩尔定律已失落效,面向AI领域,做事器所供应的算力能力是亟待办理的瓶颈点。
在运用实战方面来看,做事器和人工智能都是赋能各行业运用的支撑技能,做事器是打算支撑的子系统,运用业务支撑是较为繁芜的系统工程。
赵鸿冰表示,人工智能更大的代价在行业运用层面,在IT根本举动步伐层面运用也有干系公司的在探索,如近几年提出的AIOps。但运用形态千差万别,借助AI较难实现通用的高效的IT运维。
从目前的实践看,通过规模化的云打算根本举动步伐形态是前辈的生产力,有规模化、有量的积累后,无论是在职员、技能、知识积累,还是在AI和IT运维方面结合的实践,都有较好的投入产出比。中小微规模资源很难有规模化的红利。北京超级云打算中央的超级云打算和AI智算云,基于数十万CPU核心、数千张GPU卡,为20000多客户供应了高品质的CPU和GPU云算力,客户和中央都充分享受到了由规模化带来的红利。
戴尔:用AI加速做事器各种能力
谈到戴尔,相信在大家印象中最主要的标签便是:一家超大规模的企业!
除消费级之外,在企业级领域它拥有着极其丰富的产品阵营,涵盖了做事器、存储、网络、软件等等,而且在环球的市场份额也是数一数二。那么,在AI方面它又有着若何的布局呢?
据戴尔科技集团数字化平台办理方案架构师吴跃先容,芯片方面,戴尔科技集团投资的芯片企业Graphcore推出了AI专用加速芯片。并且已经搭载至Dell EMC DSS8440做事器上,可以知足创新者的需求,打破现有硬件对付算法和模型创新的限定瓶颈,帮助他们在机器智能方面实现新的打破。
其余,在同等算力哀求下,芯片功耗也是AI研究中比较关注的地方。很多企业异构打算小组正在探求更高性能或功耗更低的办理方案,目前,FPGA和ASIC是替代GPU的两大热门方向,AI异构加速也是戴尔易安信一贯在研究的技能领域。早前戴尔科技集团携手Intel在重庆建立FPGA中国创新中央,打造为加速FPGA人才培养与运用落地的基地。
高密度GPU做事器设计与优化,为AI数据中央供应单机性能更高、散热效率更好、运行更稳定的AI打算做事器。戴尔专门针对AI GPU打算设计和优化的C4140和DSS8440做事器,集成了很多针对深度学习参数快速同步和小文件IO的硬件优化技能,可以为机器学习运用程序和其它哀求高性能打算的苛刻事情负载供应良好的算力支持。
AI GPU集群分布式演习,从单台做事器内部优化到端到端集群优化,须要打算、存储、网络、框架软件的协同。戴尔高性能非构造化数据存储(Isilon F800/F810全闪存)可以支持各种运用程序和事情负载;其余,针对企业无法高效利用GPU资源的问题,戴尔科技集团的猎户座GPU动态加速云软件可实现对运用透明的AI GPU分布式演习,助力客户摆脱资源随需扩展的苦恼。
现如今,做事器与AI深度结合也是企业级用户关注的焦点之一,戴尔科技集团高性能打算方案架构师凌巍才表示,人工智能须要大量的打算能力,而做事器的优化设计,可以起到支撑AI打算的浸染,例如:GPU通信机制优化、存储IO性能优化、GPU做事器的供电及散热优化,如Dell EMC PowerEdge 14G做事器的多矢量散热技能、以及新型AI加速芯片支持等。
相对而言,做事器也越来越多采取基于AI机器学习技能来设计、生产和运维管理。如用图片识别的办法来检测做事器部件是否合格,用预测的方法实现自动化运维等。Dell ProSupport 采取AI和深度学习技能实现自动化IT设备运维,并供应的支持做事可最大限度地提高事情效率以及优化用户的技能环境。
新华三:基于云的AI平台将带来新体验
目前海内To B领域风头正劲的企业,非新华三莫属。依托于HPE的领先技能和新华三自身的研发创新能力,最近几年新华三在市场中激流勇进。同时,全体紫光集团也在半导体等领域展现出了强大的实力,为新华三的快速发展奠定了坚实的根本。
随着人工智能干系技能在各行各业的不断遍及,安防、教诲、零售、营销、制造等场景都已经在支配AI业务,这也意味着用户的上层业务运用对底层打算资源的哀求越来越高,传统的以通用打算芯片为核心的串行打算架构,已经不敷以支撑智能时期用户业务系统的培植和发展,须要更加多元化的打算架构加速行业运用。
新华三集团聪慧打算产品线副总经理刘宏程认为:当前,越来越多的人工智能运用开始引入CPU、GPU、ASIC、FPGA等异构打算单元来加速打算,这对做事器的架构设计提出了更高的哀求。
性能方面,以英伟达A100 GPU为代表的人工智能加速芯片针对深度学习、机器学习、高性能打算等场景都做了深度的优化及适配,做事器须要供应更好的散热能力、更快的I/O性能合营这些加速芯片来为人工智能供应更强劲的算力。
据理解,新华三将会不才半年推出PCIe Gen4 CPU+A100 GPU的GPU做事器产品,来知足用户智能运用对付底层打算资源的超高性能需求。
其余在多元化方面,由于人工智能所涉及到的领域非常广,单一的打算芯片并不能完备知足用户AI方面的需求,CPU、GPU、FPGA、ASIC、NPU……都有各自的适用场景。这须要做事器对这些加速芯片都能做到很好的适配和支持。在人工智能加速芯片领域,新华三一贯保持开放互助的心态,目前和业内主流的芯片厂家均已建立了深入互助关系。
在灵巧性方面,由于GPU做事器常日都是运行着关键业务且投入本钱较高,用户希望GPU做事器采取更灵巧的模块化设计以简化运维,同时也能实现不同打算平台的迭代升级。其余针对中小企业,也须要做事器厂家能够供应配套的人工智能平台软件,以实现对硬件资源的管理调度和可视化演习环境等功能以更好的支撑上层业务。为此,新华三推出InfoSight人工智能运维软件,利用基于云的AI平台帮助用户实现做事器的自我管理、自我修复、自我优化,让做事器的管理和运维更加智能便捷。
人工智能的发展才刚刚开始,未来将有更多行业更多运用和人工智能结合,新华三也将致力于供应最佳的做事器产品,成为企业构建人工智能打算平台的最佳互助伙伴!
宝德:通过AI芯片解放CPU算力
宝德打算机是一家老牌的做事器厂商,也是英特尔主要互助伙伴之一,在从前间它还推出过基于安腾的小型机哟!
其成立于深圳,因此研发与创新方面有着良好的基因,近年来又陆续推出了AI做事器、一体机及边缘打算做事器等产品。
谈到当前炙手可热的AI做事器,深圳市宝德打算机系统有限公司AI产品经理刘志远表示,人工智能的根本三要素便是:大数据,算法和打算力。这里的打算力就可以大略理解为打算设备(做事器/PC/其他打算设备)所能供应的运算能力,根据人工智能行业目前发展的程度来看,紧张集中在人工智能的研究领域在不断扩大,人工智能研究的各个分支,包括专家系统、机器学习、进化打算、模糊逻辑、打算机视觉、自然措辞处理、推举系统等。
人工智能所需的算力类型也在不断变革,不同的研究方向对打算力的哀求也越来越细化,推理、演习、数据剖析、HPC等。目前来说,人工智能领域最热门的方向是机器学习,机器学习里利用最广的技能是深度学习。
而深度学习算法的特点又决定了其对算力类型的哀求紧张集中在大略指令集的大带宽的并行打算,在深度学习的演习过程中原来越大的数据模型又对缓存提出很大的哀求,其次随着人工智能的多领域发展,作为人工智能三要素之一的大数据,也在发生变革,数据类型越来越丰富,对支持人工智能根本算力的打算芯片又提出了更高的哀求,超多核心并走运算,大缓存(显存),支持更多形态的数据类型,打算力风雅化适配,这些都是目前的做事器在面对人工智能这个飞速发展的行业所面临的寻衅。
在运用方面,各行各业正与人工智能加速领悟,通过智能化创新来寻求业务转型升级。AI的运用需求是多种多样的,不同的运用也决定了从数据中央到边缘再到设备所需的硬件能力都有所差别。算力作为AI家当发展的关键成分之一,已然引起了业界的高度重视,随着深度学习算法的遍及运用,AI家当发展对算力供应者——AI做事器提出了更高的哀求。比如帮助企业AI规模化落地,须要充分利用以数据为中央的根本架构,综合考虑处理器、核心算法和软件工具等平台办理方案的选择。
据刘志远先容,随着各行业发展对付具有海量数据并行打算能力、加速打算处理的AI芯片需求不断攀升,芯片制造商、做事器生产商、各大算法公司积极研究AI芯片的构造和事情事理,不断提升AI加速芯片的算力。
宝德推出了异构设计的AI加速打算做事器,其运用模式采取大数据+深度神经网络模型相结合,以加速打算集群办法对数据或深度网络模型进行并行化,加快程序实行效率。紧张运用于企业虚拟化、深度学习以及高性能打算领域,通过加速卡承担部分预算量繁重且耗时的代码,为在CPU上运行的运用程序加速。而宝德AI推理做事器,有英特尔打算架构和至强平台助力,可以帮助企业从既有的平台起步,加速破局AI家当实践,在性能、可扩展性、内存、跨平台支配运用等方面具有先发上风。宝德AI做事器已经帮助AI算法公司、互联网、安防监控、自动驾驶、聪慧交通、智能制造等行业/领域的用户加速AI技能的实现或运用。
展望未来
接下来要展望一下未来技能,在这里我们把几位专家的内容单独提出来,紧张是该部分关注点略带一些“个人专业”色彩。由于从企业研发角度来看,各个方面的新技能基本都会关注,而专家发言人则会更加专注于自己的领域,例如:做事器、高性能等等。
对读者而言,他们的关注点更具代表性,为我们学习、磋商未来技能供应了更广阔的思路。干货满满的哟!
北京超级云打算中央赵鸿冰博士:进一步冲破存储瓶颈
在AI打算力方面,NVIDIA最新的A100 GPU是上一代V100的20倍。更小制程、更小的面积,更强劲的打算能力是芯片和做事器第一主要指标。期待国产芯片在制程和打算能力方面有更大的打破。
在新技能方面,赵鸿冰博士认为存储墙问题是影响做事器性能的瓶颈之一,新型存储技能值得关注。
从当前公开资料中可以看到,新型存储技能包括相变存储器(PCM),以英特尔与美光联合研发的3D Xpoint为代表;磁变存储器(MRAM),以美国Everspin公司推出的STT-MRAM为代表;阻变存储器(ReRAM) ,目前暂无商用产品,代表公司有美国Crossbar。我国也在积极布局。这些技能成熟、大规模商用后,将给做事器性能带来大幅度提升。其余,存内打算(PIM)同样值得关注。
本日我们看到的AI领域的神经网络等技能在上世纪七八十年代就已提出,如今在算力能力大幅提升和运用驱动的情形下,得到高速的发展。人脸识别安检、人脸识别支付、智能安防系统、智能语音交互掌握、工业机器人、智能物流分拣机器人、智能家居这些已经司空见惯,无人驾驶的大规模遍及也指日可待。AI上升到国家计策,随着新基建的提出,AI技能将在更多领域创造出新的落地场景。
戴尔凌巍才:连续关注GPU虚拟化、HPC/AI存储
AI的做事器虚拟化技能,是比较热门的领域。例如,戴尔科技集团在6月初号发布的基于VMware验证设计的全新Dell EMC就绪型办理方案(结合了Dell EMC系统和VMware Cloud Foundation(VCF)平台)是针对AI/HPC 的创新产品。可以使配置GPU的做事器进行GPU虚拟化,支持容器技能,并支持公有云和私有云,支持HPC 的运用处景,简化人工智能的支配和运用。HPC/AI存储将持续会是热点。
其余,AI打算离不开数据,数据离不开存储。Dell EMC Isilon可供应高性能机器学习和深度学习所需的数据。凭借可实现低延迟、高吞吐量和大规模并行I/O的卓越功能,Dell EMC Isilon是对用于AI事情负载的GPU加速打算进行有益补充的空想存储,可有效地压缩针对多 PB 数据集演习和测试剖析模型所需的韶光。Isilon的另一项上风是,可将Isilon全闪存存储添加到现有Isilon群集,加速处理海量非构造化数据并发挥其代价。
基于ASIC的AI专用芯片(如谷歌的TPU)也同样备受关注。前文我们已经提到过戴尔投资的Graphcore,其IPU加速卡,单张峰值性能可以达到250Tops,是Nvidia V100GPU的2倍。IPU采取同构多核架构,单片上供应2432个独立的处理器;它大量采取片上SRAM而非传统DRAM,参数权重存储在处理器的高速缓存。单台Dell EMC DSS 8440做事器,最多可以支持8张IPU加速卡。在起先进行的一些深度学习演习和推理测试中,Graphcore IPU表现出了非常出色的性能。
新华三刘宏程:关注GPU加速及运用新趋势
人工智能现在已经上升为国家计策,各行业针对人工智能干系技能和运用的投入持续增加,而在做事器和AI领域也涌现了很多新兴技能。
例如做事器的水冷技能,AI对付做事器的算力哀求越来越高,CPU、GPU等打算芯片在性能不断增加的同时功耗同步飙升,目前最新的英伟达A100 GPU功率已经达到了400W,这对做事器的散热设计提出了更高的哀求。当前水冷技能已经小规模运用在部分分外型号的做事器上,未来也可能运用于AI做事器以支撑人工智能所需的强劲算力。
其余,边缘打算也同样受到关注。在安防、聪慧零售、自动驾驶等等这些人工智能场景,不仅仅须要数据中央为其供应强大的算力,在边缘端同样须要支配做事器,加快系统的实时相应速率,提高全体系统的可用性和可靠性,为用户带来更好的利用体验。未来人工智能的支配会越来越多地采取云和边缘打算结合的办法,以知足用户业务发展的需求。
宝德刘志远:AI及推理打算加速
在AI做事器(为AI供应算力的做事器)这个分支,目前呈现出很多新的技能,如NVIDIA最新发布的A100的GPU卡,个中就有很多的新技能,更新一代的打算核心支持更多种类的数据类型,合营最新的MIG技能(GPU卡物理切割技能),实现了一卡多用,支持多种打算类型实现打算力的风雅化管理。
比如NVLink技能,它办理了多块打算卡之间的通信瓶颈,加速卡与卡之间的数据交互速率提高通信带宽,合营最新的Sparsity技能(通过压缩数据中的0,实现数据处理前的压缩),多片这样最新的卡通过NVLink技能连接到一起放进做事器的机箱,合营上合理的算法和海量数据,相信对AI研究速率和进程又是大大的提升。
例如:宝德采取NVIDIA A100 GPU卡推出了DGXA100系统,它集成了8个全新NVIDIA A100 Tensor Core GPU,具有320GB内存用以演习最大型的AI数据集,以及最新的高速NVIDIA Mellanox HDR 200Gbps互连,在INT8推理性能、FP32演习性能均实现20倍提升,FP64高性能打算也提高2.5倍,适用于所有AI负载的通用系统,能够将演习、推理、剖析整合至易于支配的单一人工智能根本架构。
再如Intel最新发布的第三代英特尔至强可扩展处理器Cooper Lake、首个人工智能优化FPGA Stratix 10 NX、第二代傲腾持久内存、最新英特尔3D NAND企业级固态硬盘等数据中央产品组合,能强化处理器的内置AI加速能力和软件优化上风,帮助用户快速支配AI和数据剖析。
Cooper Lake进一步强化了AVX-512指令集,DL Boost除了支持VNNI以对int8加速以外,还增加了对bfloat16这种数据类型的支持,而在软件方面,英特尔也同时为OpenVINO工具包和ONNX Runtime环境供应bfloat16优化,以简化推理的支配事情。新一代傲腾持久性内存,合营Cooper Lake上经由改进的内存掌握器,单槽最多能够拥有4.5TB的DRAM,以进行内存数据库、密集虚拟化、剖析及高耗能打算等数据密集型事情负载的管理。
总结:
随着运用的飞速发展,我们看到打算与AI越来越密不可分,它们相辅相成地快速演进,将打算性能一次又一次地推向了新的制高点。与此同时,海量的做事器又带来新的运维压力,而AI又可以帮助用户来搞定自动化运维,相辅相成。
“云旗卷海雪,金戟罗江烟。聚散百万人,弛张在一贤。”正像李白诗中所述那样,未来各种各样的根本架构设备就像千军万马一样整装待发,而AI将在软件的合营之下扮演“一贤”之角色来指挥大军,以更高的效率打破各种极限。
延伸阅读(人工智能实战案例)
北京超级云打算中央案例:
某家电办理方案供应商(北京超级云打算中央客户)通过自然措辞处理技能,在恒河沙数的解释书中,快速提取解释书的电器性能参数,辅导设计生产。
戴尔案例:
北京铭鼎家业科技通过与戴尔科技集团的互助,业务奏效十分显著。首先是积累更为深厚,北京铭鼎家业科技不仅完善、丰富、强化了针对AI天下里自动驾驶、图像识别、语音识别、***识别、VR虚拟现实系统的培植履历,而且还通过大数据、云打算、当代化数据中央、深度学习等一系列的办理方案,为多个高校在AI传授教化中所涉及到的在大数据剖析、打算力提升、AI算法等传授教化事情供应了持续化的IT支持,让公司业务增长达到300%。
其次是IT做事能力大为提升,通过在AI传授教化领域内为数浩瀚的著名高校供应AI传授教化平台做事及由此而积淀下来的项目履历,北京铭鼎家业科技提升了干系软件和硬件的整合能力,业务和流程的快速领悟能力得到了进一步提高。总体来说,北京铭鼎家业科技的IT做事能力得到加强,市场开拓能力大为提升,业务承载能力提升10倍,以前只能做1千万元的项目,现在可以承接上亿元的项目。
新华三案例:
目前新华三的AI做事器在互联网、金融、制造、教诲等行业都已经有成熟的运用案例。
例如,某智好手机龙头企业,通过利用新华三的GPU做事器搭建其人工智能平台,大大提升了其智能语音助手、拍照识别、社区内容审核等业务的开拓进度。此前这些业务都是用传统的CPU做事器承载,但CPU的算力远远不能知足深度学习演习的性能哀求,导致开拓团队常常涌现打算资源不敷的情形,极大影响各业务的开拓进度。用户通过支配专用GPU做事器之后,合营GPU集群管理软件,实现了对AI算力资源的统一管理和调度,极大提高了深度学习模型演习的效率,在IT投入相同的情形下,既缩短了演习韶光也提高了演习精度,帮助其语音助手、拍照识别等业务的识别率、精确度得到极大提升。
宝德案例:
比如某短***平台,每天收到用户上传的数据有3000多万条,但是应国家互联网监管的哀求,平台必要对每条数据进行检测和审核,用户上传的数据多是图片或***,这样的检测和审核事情就须要大量的打算力,而且是与以往普通打算不同的算力哀求。宝德为其量身打造了适配的AI做事器,在担保了安全性、可靠性、稳定性、高性能根本上,使得该短***平台的检测事情量大大降落,并且节约了客户整体本钱,TCO节省约50%。
本文系作者个人观点,不代表本站立场,转载请注明出处!