TPU要比GPU和CPU快15-30倍,这是谷歌定制芯片一年后给出的答案

404·2017-04-06 11:19
公司不太可能在自己的云端之外提供TPU

2016年的I/O 开发者大会上,谷歌公布了自己研发的定制化芯片——Tensor Processing Units (TPU) ,并且透露已经在公司内部的数据中心使用了将近一年。该定制化芯片主要用来加速公司的机器学习算法,而且会优化公司的TensorFlow机器学习架构,但其并未透露更多的内容。

日前,谷歌在一份文件中介绍了更多关于该芯片的详细内容和一些使用标准。如果你是一个芯片设计者,你可以在该份文件中找到TPU工作的原理所在。谷歌方面表示TPU的运转速度很快,但这都是基于公司的数据进行的评估。

在运行谷歌常规的机器学习工作量的时候,TPU的平均运转速度要比标准的GPU/CPU组合(比如Intel的Haswell处理器和Nvidia 的 K80 GPU)快15-30倍。在数据中心计算功耗时,TPU还提供30-80倍的TeraOps/瓦特(如果未来使用更快的存储,这一数字可能还会提高)。

值得注意的是,这些数字是关于在生产中使用机器学习模型的,而不是首先创建模型。

Google还表示,大多数架构师为卷积神经网络(比如一种可以很好的识别图像的神经网络)优化了其芯片,但这些网络负责的工作量只占到公司数据中心总工作量的5%。事实上,大部分应用使用的是多层感知器。

另外,谷歌还表示公司从2006年就开始研究如何在数据中心中使用GPU、FPGA和定制的ASICS(这对定义TPU很重要)。然而,当时并没有很多的应用程序真的可以从这种特殊硬件中受益,因为他们所需的大量工作量可以在数据中心已经有的硬件中进行处理。

这种改变发生在2013年,公司当时预测DNN可能会变得越来越流行,这可能会使公司数据中心的计算需求增加一倍。如果用传统的CPU来满足这一计算量将变得很昂贵。因此,公司开始了一个优先项目,可以快速生成用于推理的定制ASIC(同时公司买了用于培训的现成GPU)。这样做的目的是,把芯片的性能提高10倍(比起GPU)。

对于谷歌来说,公司不太可能在自己的云端之外提供TPU。但公司表示,其他公司可以通过所掌握的技术进一步的提高进入这一领域的门槛。

随着人工智能、深度学习等技术的加入,行业里对芯片的要求也越来越高。像ARM、高通、英伟达这样的芯片公司在不断研发新的芯片。比如ARM此前推出了DynamlQ芯片,公司表示未来3年-5年,使用DynamlQ技术的Cortex-A系列处理器,其人工智能运算性能将提升50倍。而且可将CPU和SoC上特定硬件加速器的反应速度提升10倍。

另外一些科技巨头也在研发自己的芯片,除了谷歌外还有苹果。苹果已经打算在Mac、iPhone中多采用自己的芯片,下一代iPhone可能使用苹果自己设计的A11芯片。除了国外,国内的华为、小米也在斥巨资研发自己的芯片。

在硬件生产领域,芯片算是整个生产链条中较为核心的技术。这些大公司都想在这一技术上有所突破似乎也不难理解。

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

Snowflake提供基于云的数据仓库服务

2017-04-06

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业