谷歌云用上更快的英伟达GPU,灵活性提高而且更便宜了

量子位·2017-09-22 14:14
谷歌和英伟达强强联手,英特尔的CPU真的不行了么?

编者按:本文来自微信公众号“量子位”(ID:QbitAI),编译:安妮,36氪经授权发布。

昨天,谷歌云平台宣布,在Google Compute Engine上引入更强大的英伟达GPU。

谷歌云想让英伟达K80 GPU更普遍使用,也开始支持英伟达P100 GPU。与此同时,还推出了一个新的持续定价模型,帮用户节省费用。

对需要运行机器学习工作负载的公司来说,他们能以分钟为单位更灵活地使用GPU然后支付。根据持续定价模型看,如果最终运行GPU达到一段时间,用户能得到最多30%的折扣,不会受到巨额账单的困扰。

云GPU能加速工作负载,包括机器学习中的训练和推理、地球物理学数据处理、模拟、地震分析、分子建模、基因组学和许多高性能计算用例。

英伟达Tesla P100基于Pascal GPU的体系,用户可在降低成本的同时用更少的实例提升吞吐量。与K80相比,P100 GPU能以K80的10倍速加速工作负载。

△ CPU、K80 GPU和P100 GPU速度对比图

与传统解决方案相比,云GPU提供了更好的灵活性、性能和更低的成本:

灵活性:谷歌的自定义VM shape和增加的云GPU决定了最终的灵活性。用户可自定义CPU、内存、磁盘和GPU配置。

性能更快:在透传模式下云GPU可提供裸机性能。谷歌云在每个VM上安装了4个P100或8个K80 GPU。对于想提高磁盘性能的用户,可选择将3TB的本地SSD附加到任何GPU的VM上。

低成本:有了云GPU,用户可按分钟数计费,并有持续使用折扣。用多少,付多少。

△ VM实例在不同等级上的费用

云集成:用户可在所有级别的堆栈中使用云GPU。对于基础架构来说,计算引擎和容器引擎让用户使用VM或容器(Container)运行GPU工作负载。对于机器学习项目,可视情况将云机器学习配置为用GPU减少用TensorFlow大规模训练模型的时间。

目前,P100和K80 GPU在全球四个地区提供,它们分别为美国西部俄勒冈州、美国东部的南卡罗莱纳州、欧洲西部的比利时和亚洲东部的台湾。所有GPU都有持续使用折扣,可以降低使用成本。

△ 云GPU部署地区及数量

谷歌的这两种芯片为进行计算密集型任务的团队提供了选择的灵活性,方便用户在平衡速度和价格的同时,优化运行工作量。

+1
2

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

工具类产品成功与否,首先需要有规模化或者作为流量入口的潜力。同时要尽快寻找能使自己离“交易”更近的商业化路径

2017-09-22

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业