谷歌Cloud TPU开始商用,AI芯片市场再添悍将

【导读】2月13日,谷歌云博客宣布对外开放谷歌Cloud TPU服务,谷歌大脑负责人Jeff Dean也在推特上发消息大力宣传。关于谷歌Cloud TPU大家可能不太熟悉,大名鼎鼎的AlphaGo背后就是使用的谷歌自家的TPU芯片。谷歌开放Cloud TPU服务也是谷歌AI芯片商用化的开始,目前该服务只在美国地区开放,价格为6.5美元一小时,并且是限量发售。要了解更多关于谷歌Cloud TPU的详细内容,读者可以详细阅读本文。


 

谷歌宣布开放CloudTPU




今日,谷歌大脑负责人Jeff Dean在推特上发布消息,宣传谷歌最新开放的服务Cloud TPU,为那些希望加速训练机器学习的研究者提供服务,目前发布的是GoogleCloudTPUs的Beta版本。

Jeff Dean表示,Cloud TPU主要针对当前计算机硬件对于大型机器学习模型计算能力不足问题,为特定的TensorFlow机器学习工作负载做了优化,单块板卡的计算能力达每秒180teraflops,高带宽内存有64GB。并且此次谷歌cloudTPU Beta版是限量上市,可以通过以下链接申请注册:

https://services.google.com/fb/forms/cloud-tpu-beta-request/

 

这次发布的谷歌Cloud TPU可以帮助谷歌的各类机器学习应用进行快速预测,并使产品迅速对用户需求做出回应。谷歌表示,TPU 能帮助加速各类机器学习任务,如图像搜索,神经翻译,其强大的计算力在AlphaGo对阵李世乭的比赛中也发挥了作用。


什么是TPU




TPU 是谷歌在 2016 年推出的专们为机器学习设计的 AI 芯片,主要用于提高人工智能计算任务的执行效率,其全称为TensorProcessing Unit——张量处理器。

2017年4月Google团队发表论文《In-Datacenter PerformanceAnalysis of a Tensor Processing UnitTM》,在论文中对TPU进行了分析,并表示与同期的CPU或GPU相比,TPU可以提供15-30倍的性能提升。

 

TPU通过两个PCI-E 3.0 x8边缘连接器连接协处理器,总共有16 GB/s的双向带宽。TPU消耗功率达40瓦,远高于PCI-E电源规格,可为8位整数运算提供每秒92万亿次的运算,或为16位整数运算提供每秒23万亿次的运算。

 

在 2017 年 5 月的谷歌年度开发者大会上,谷歌又推出第二代TPU,那次的更新也意味着谷歌进入了更为复杂的深度学习训练阶段。Google大脑负责人Jeff Dean表示,“第二代TPU芯片采用了与第一代完全不同的设计架构,第一代芯片由于只进行推理运算所以体积较小,而在第二代芯片中我们加入了能满足训练需求的硬件结构,同时还考虑了如何将这些计算单元组合成大型系统的架构方法”。

 

谷歌Cloud TPU非常适用于浮点运算,而且很容易在云端部署,在第二代的研究思路可以看出,Cloud TPU并非为了与GPU直接竞争,而是利用TPU在公有云行业差异化发展。

 

简单地训练机器学习模型




在之前,想要在定制的ASIC和超级计算机上进行编程,需要很深的专业知识技能。而对于 Cloud TPU 而言,用高级TensorFlow API就可以进行编程,Google还开源了一组高性能的云TPU模型实现,使上手更简单,其实现的模型列表如下:


  • 图像分类模型ResNet-50:https://cloud.google.com/tpu/docs/tutorials/resnet

其他图像分类模型:https://github.com/tensorflow/tpu/tree/master/models/official

 

  • 用于机器翻译和语言建模的 Transformer:

https://cloud.google.com/tpu/docs/tutorials/transformer

 

  • 用于目标检测的RetinaNet:

https://github.com/tensorflow/tpu/blob/master/models/official/retinanet/README.md

 

Google团队对性能和收敛性的不断测试,使这些模型都达到了标准数据集的预期精度。

 

另外,谷歌还表示:我们还将开源其他模型实现。喜欢摸索的机器学习专家可以使用我们提供的文档(https://cloud.google.com/tpu/docs/)和工具(https://cloud.google.com/tpu/docs/cloud-tpu-tools)自己利用 Cloud TPU优化其他 TensorFlow 模型。


可扩展的机器学习平台




使用谷歌Cloud TPU,你可以直接用经过Google优化的高度集成的机器学习基础设施,而无需投入大量金钱、时间、专业人才来设计、安装、维护现场机器学习计算集群,不用考虑供电、冷却、联网、存储要求等问题。


并且伴随谷歌Cloud TPU的日益成熟,我们也会提供大量的高性能 CPU(包括英特尔 Skylake)和高端 GPU(包括英伟达 Tesla V100)。

-END-

专 · 知

人工智能领域主题知识资料查看获取【专知荟萃】人工智能领域26个主题知识资料全集(入门/进阶/论文/综述/视频/专家等)

同时欢迎各位用户进行专知投稿,详情请点击

诚邀】专知诚挚邀请各位专业者加入AI创作者计划了解使用专知!

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料

请扫一扫如下二维码关注我们的公众号,获取人工智能的专业知识!

请加专知小助手微信(Rancho_Fang),加入专知主题人工智能群交流!

点击“阅读原文”,使用专知

展开全文
Top
微信扫码咨询专知VIP会员