一个TPU(如图所示)由四个专用集成电路组成,配有64GB的“超高带宽”内存。
这一组合单元可以供应高达180 teraflops的性能。
今年晚些时候,谷歌操持增加一个集群选项,让云客户将多个TPU聚合成一个“Pod”,速率达到petaflop的范围(是teraflop的1000倍)。

谷歌宣布公有云平台将支持面向人工智能的TPU芯片_人工智能_芯片 云服务

在本日的公告中谷歌并没有分享更多的性能细节。
不过,去年谷歌的两位顶级工程师写的一篇博客文章显示,当时内部利用的Pod包括64个TPU,总吞吐为11.5 petaflops。
比较之下,天下上功能最强大的超级打算机可以达到93 petaflops,但值得把稳的是,谷歌很可能没有利用相同的基准测试方法来丈量TPU的速率。

无论哪种办法,这些芯片都是Google云平台的一个主要补充。
当谷歌于去年4月首次向全天下展示TPU规格的时候,它透露该芯片至少可以运行某些机器学习事情负载,比现有的芯片快15至30倍。
这就包括特殊适宜用于机器学习模型的GPU。
GPU的紧张制造商包括Nvidia和AMD公司,这两家公司仍旧是当本年夜多数项目的首选。

因此,谷歌的云客户该当能够更快速地培训和运行他们的人工智能软件。
谷歌表示,一个TPU可用于在一天之内履行主流ResNet-50图像分类模型,达到可接管的精确度水平。

谷歌已经创建了几个预先优化的神经网络包,让客户可以将其运行在TPU上,个中包括一个ResNet-50版本,以及用于机器翻译、措辞建模和识别图像内物体的模型。
企业客户也可以利用谷歌的开源TensorFlow机器学习引擎创建自己的人工智能事情负载。

喜好利用传统图形卡进行人工智能项目的客户,本日也看到了一项新的功能。
谷歌为其Kubernetes Engine做事添加了GPU支持,以许可将机器学习模型打包到软件容器中。
后一种技能供应了一个轻量级抽象层,使开拓职员能够更轻松地推出更新并跨环境迁移运用。

这个新的TPU价格为每小时每单元6.50美元,而通过Kubernetes Engine租赁的GPU将按谷歌现有的每种支持芯片型号收费。

这种芯片对付各种人工智能任务、特殊是对付一些打算机事情负载而言的就绪情形,仍旧不明确。
Moor Insights&Strategy总裁兼首席剖析师Patrick Moorhead表示:“TPU是一个很好的试水办法,但并一定适宜于运行生产事情负载。
GPU是进行演习的最佳办法。
锁定到TPU,意味着被GCP和TensorFlow锁定。

而且谷歌也不是唯一追求自主开拓人工智能芯片的公司。
芯片巨子英特尔公司一贯在推销其最新用于人工智能事情负载的CPU,以及称为FPGA的定制芯片。

据The Information宣布称,亚马逊公司正在开拓自己的人工智能芯片,该芯片可以帮助其Echo智能音箱和其他利用其Alexa数字助理的硬件在设备上实行更多处理任务,以便它可以比调用云的相应速率更快。