为开发AI本地化的移动应用,谷歌开源机器视觉神经网络MobileNets | 潮科技

李振梁·2017-06-16 08:28
移动端的AI本地化是一种目前的趋势。

智能手机已经成为AI的前沿阵地。

算法在云中计算,并让设备联网运行,已经逐渐让位于软件直接在手机和电脑上本地化运行。苹果和Facebook都在做这样的事情,而谷歌在移动AI上比所有人都要走的更进一步。

最近,谷歌在官方博客中宣布,开源了一组可以直接在移动设备运行的机器视觉神经网络——MobileNets。谷歌表示,这是一款为TensorFlow准备的、移动端优先的计算机视觉模型包。

MobileNets可用于处理各种训练任务

MobileNets可用于处理各种各样的训练任务,包括分析人脸,检测常见对象,照片定位,它还可以执行细粒度的识别任务,比如如识别不同种类的狗。

这组神经网络拥有多种尺寸,因此可以适应各种设备。在设计上,这款工具包力图为设备端和嵌入式应用最大限度地提升精度。MobileNets具有小规模、低延迟、低功耗的特点,来解锁不同用例中的资源限制。

谷歌表示,虽然每个神经网络的功能和任务不同,但总的来说,这些神经网络已经达到或接近最新、最先进的标准。

对消费者来说,这意味着开发者可能会开发更多地具备AI功能的移动APP。

现在,有很多集成机器学习功能的移动移动,会将数据传回云端进行处理,然后传回给用户。这就意味着必须联网才能执行任务。

此外,虽然云端处理减轻了智能手机上的负担,但是这就要求有强大的数据中心。而且,这样会导致延迟,还有隐私泄露的风险。

与之相比,在手机上本地化运行AI功能,则没有这样的弊端,这种处理方式将享有更快的性能、更加方便(不用联网)、隐私保护更好(你的数据不会被脱机发送)。

当然,并非谷歌一家在做这样的事情。移动端的AI本地化也是一种目前的趋势。

本月早些时候,苹果也为开发者设计了一组机器学习工具CoreML,来为iOS系统系统创建应用。Facebook也创建了自己的移动AI的框架。

甚至上市不久的Snapchat,本周也发表了一篇学术论文,努力在移动端加入图片识别的功能。

谷歌和苹果都曾表示要设计AI专用的移动处理器。谷歌在2016 I/O上首次发布了为机器学习设计的专用芯片——TPU,并在今年的I/O大会上公布了机器学习超级计算机Cloud TPU Pod。5月末,彭博披露苹果正在研发一款AI处理器,将会集成到包括iPhone和iPad在内的很多设备当中。

在台北电脑展上,ARM已经发布了两款针对AI性能任务的芯片——Cortex-A75和Cortex-A55。

对于很多产品来说,手机和汽车都是两个庞大的应用场景,对于AI的开发也不例外。现在无人驾驶的热潮方兴未艾,手机端的AI应用也纷至沓来。随着本地化运行的移动AI应用不断增多,AI对日常生活的渗透也将越来越深广。

+1
3

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

微软,谷歌和Salesforce,这些曾经的合作伙伴,无一不对收购Slack感兴趣。

2017-06-16

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业