Google Glass上的出门问问:未来语音交互在手机之外的移动设备上是不可或缺的

橙皮书·2014-05-06 22:48
Google Glass出了这么久,我亲自体验过的非官方应用也就两个,一个是之前写过的快捷酒店管家,另一个就是今天要说的出门问问。试用之后的体验就是,Glass这类设备在不远的未来肯定大有可为。 先简单介绍下出门问问。这是一款基于自然语义分析的生活服务搜索,你可以直接通过语音输入的方式,用它来查询诸如“附近哪里有好吃的川菜?”,它就能理解你的意思,返回给你关的查询结果。其中技术的最难点在于语义分析这一环,即怎么让机器理解人们的自然语言。出门问问的创始团队成员大多是Google系,创始人李志飞是Google的机器翻译团队科学家。

Google Glass出了这么久,我亲自体验过的非官方应用也就两个,一个是之前写过的快捷酒店管家,另一个就是今天要说的出门问问。试用之后的体验就是,Glass这类设备在不远的未来肯定大有可为。

先简单介绍下出门问问。这是一款基于自然语义分析的生活服务搜索,你可以直接通过语音输入的方式,用它来查询诸如“附近哪里有好吃的川菜?”,它就能理解你的意思,返回给你关的查询结果。其中技术的最难点在于语义分析这一环,即怎么让机器理解人们的自然语言。出门问问的创始团队成员大多是Google系,创始人李志飞是Google的机器翻译团队科学家。

听起来是一款挺有趣的产品,不过,在这之前我是一次都没有用过的,因为我对手机上的语音交互向来没好感,不如键盘输入准,体验上的便捷也不明显。换到Google Glass上之后,情况变了。因为Google Glass上现在是没法输入文字的,只能靠触摸板上简单的点按操作和语音来交互。

比如你戴着Google Glass在开车,想去苏州街,不知道路咋走,只要说一声“OK 出门问问”,就能打开出门问问的Glass应用,然后随便说一句,苏州街怎么走啊?或者我想去苏州街,应用就能很快的给出导航图,告诉你该怎么走在哪儿拐弯,调整头部上扬的角度,还能提前查看前面几个拐点的位置。所有这些交互,都只需要一只手操作,再动几句嘴皮子就能完成导航,不用低头在手机上打字忙活,安全又高效。

除了导航,Glass上的出门问问能做的还有很多,问吃饭的地儿,问天气,问最早一班机票的价格,甚至还能问附近有无帅哥美女,手机上有的Glass上基本也都有。不过个人认为这些还是属于锦上添花,真正有用也好用的可能还是在开车导航这类场景中。因为在这种场景下,才能发挥Glass和出门问问这两款产品的威力,手和眼都被相对固定了,自然的在眼镜上用语音交互的优势也就提现出来了。

语音交互的优势其实还不单是在特定场合。从长远来看,人类同机器的交互会向更自然的方式进化,比如直接同机器用语音交流,就跟同人说话一样。要达到这样的状态还有很多要做的,语音和语义识别上还有很多需要改善的地方,深度学习和人工智能方面也需要更多突破性的进展。到这些技术都足够成熟时,现在的触摸屏交互可能就跟过去的打孔纸条操作一样落伍了。

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

魔漫、微漫、Epica等产品的迭出告诉我们,相比Instagram之类图片应用专注于记录分享,这一波图片应用越来越看重留给用户的创作空间,大多是为图片中的主角(很多时候是Selfie)创造一个全新的场景以获取“非正常”的效果,或讲一个超现实的故事。 哈图这个产品(appMagics)同样是以娱乐化的思路做这件事情,不过创造场景的方式跟它们都不一样——通过其核心的虚拟增强现实拍照技术,它强调的是虚拟元素和现实场景的交互效果。

2014-05-06

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业