AI会思考吗?

boxi·2017-02-22 16:45
从AI到AGI似乎还隔着千山万水。

编者按:现在AI 已经拥有像人一样的学习能力,可以在国际象棋、围棋、德州扑克和智力竞赛都可以击败我们了。但它有没有情商呢?懂不懂人情世故呢?有没有直觉呢?Joelle Renstrom在审视当今的一些AI之后认为,目前的AI还不具备这些能力,也有人认为AI成为AGI只是时间和金钱的问题。或者可能我们需要给AI增加一些随机性

人工智能已经变得相当聪明了——至少在特定任务方面。AI已经击败了人类国际象棋、围棋和德州扑克的世界冠军。但人工智能会不会思考呢?

答案比较复杂,这很大程度上是因为智能很复杂。说一个人有智能可以是书呆子式的聪明,可以是懂得人情世故,可以是在情感方面有天赋,可以是有智慧,有理性或者有经验,这些方面样样都行的人是很罕见而且很困难的。智能有很多来源,而我们的大脑对那些来源的反应方式并不一样。因此,寻求开发人工智能会引发无数挑战,这些挑战的难度之高丝毫不亚于我们对人类智能毫无头绪的理解。

尽管如此,人类大脑仍然是我们在创造AI方面最好的指引。人类大脑包含着数十亿个互联的神经元,这些神经元既可以相互之间可以传递信息,也可以向负责记忆、语言以及思考等功能的大脑区域传递信息。人类大脑是动态的,就像我们锻炼肌肉一样,我们也可以增强自己的认知能力——我们会学习。由于人工神经网络(ANN),也就是一种节点模拟计算和分发信息神经元的机器学习算法的发展,AI也具备了学习能力。诸如去年击败人类围棋世界冠军的AlphaGo之类的AI,不仅利用ANN来计算统计概率以及各种走法的结果,还用来根据对手的走法来调整策略。

Facebook、Amazon、Netflix以及Google都应用了深度学习,这种AI通过给信息输入/输出增加层来扩展了传统的ANN。层数更多可以表示更多的数据以及数据之间的关联。这类似于人的思维——当我们处理输入时,我们的处理方式有点类似于层。比方说,当我们在电视上观看橄榄球比赛时,我们会接受特定时刻所发生事情的基本信息,但同时也会吸收更多的东西:谁在场上(谁不在场),谁正在跑位,为什么,个人的互相防守,这场比赛跟现有或历史数据相比如何(一支球队是不是经常击败另一支?四分卫是不是如往常一样推进了很多码?),教练是怎么指挥比赛的等等,很多细节。在处理这些信息时我们动用了记忆、预测等认知能力。深度学习试图捕捉这些层。

你可能已经对深度学习算法很熟悉。但你有没有想过Facebook是怎么知道在你遇到了一场倾盆大雨之后往你的主页放一条雨靴的广告的?或者它是如何在你对某一相关页面点赞之后设法马上为你推荐一个页面的?Facebook的Deep Text算法每秒钟可以处理十多种语言的成千上万个帖子。它还可以区分《紫雨》(音乐专辑)以及你需要一双雨靴的原因。

深度学习还可以结合人脸使用,它可以识别出席周年庆活动的是家庭成员还是员工。这些算法还可以在上下文环境中识别对象——这种程序可以识别出客厅地板上的字母积木,以及一堆的儿童书和弹性婴儿椅。思考从快照可以得出什么结论然后用于定向广告等方面。

Google利用递归神经网络(RNN)来帮助图像识别和语言翻译。通过让程序在未经特别编程去理解的语言之间建立关联,使得Google Translate突破了典型的一对一语言转换。哪怕Google Translate并没有进行针对性的编程来把冰岛语翻译成越南语,它还是可以在这两种语言之间找到共同性,然后形成自己的语言,而这种语言就可以充当国际语,担负起翻译的职能。

自从阿兰·图灵在1950年发表了《计算机与智能(Computing Machinery and Intelligence)》以来,机器思维一直都跟语言绑定在一起。这篇论文主要讲的是图灵测试,也即是用来衡量机器是否会思考的手段。在图灵测试中,人类需要跟一个自己看不见的实体进行基于文本的聊天。如果该实体是计算机程序并且能让这个人类相信自己是在跟人讲话的话,则可以说该计算机通过了测试。图灵测试的迭代,比如勒布纳人工智能奖(Loebner Prize)依然还在,尽管现在情况已经很清楚,那就是仅仅因为程序能像人一样沟通(可以故意引入一些拼写错误,给句子加上足够多的感叹号,加些脏话和俚语可能就可以糊弄过去)并不意味着它就会思考。1960年代的一个叫做ELIZA的罗氏疗法计算机程序就能骗过受试者,让后者以为自己是在跟真正的理疗师聊天,这也许是因为它会提出问题,并且它不像一些人类会话伙伴,看起来好像正在倾听一样。ELIZA从用户应答中捕捉关键字,然后把它变成问题,或者就简单地说“你再说说。”尽管一些人认为ELIZA通过了图灵测试,但显然从跟ELIZA或者类似聊天机器人交谈可以看出,语言处理与思考完全是两码事。

但IBM的Watson呢?它可是在Jeopardy智力竞赛中击败了两位人类选手的。Watson的统治依赖于可以随时访问到海量的信息,同时它还具备计算答案正确性概率的能力。在比赛中,Watson会收到这条提示:“Maurice LaMarche发现他内心的Orson Welles告诉这个啮齿动物说,我就一个目标:我要接管世界。”Watson给出的可能答案和正确概率分别是:

  • 《Pinky and the Brain》:正确概率 63%

  • 《Ed Wood》:正确概率 10%

  • 水豚:正确概率 10%

Google“Maurice LaMarche”一下很快就会发现他是给Pinky配音。但这条线索的棘手之处在于它包含了若干的关键术语:LaMarche、画外音、啮齿动物以及统治世界。“Orson Welles”充当了一个干扰项的角色——是的,LaMarche为Vincent D’Onofrio在电影《Ed Wood》中饰演的Orson Welles进行了标志性的配音,但这条线索跟啮齿动物毫无关系。类似地,水豚是一种南美的啮齿动物(而且是世界最大的一种,可能正是因为这样Watson才将其与“接管世界”这条线索关联到一起),但这种动物跟LaMarche或者画外音毫无联系,除非LaMarche的确有水豚的意思。人类大脑可能不会像Watson这样对概念进行合并,而Ken Jennings(其中一位人类选手)也的确给出了正确答案。

尽管如此,Watson的能力和应用仍在不断发展——现在它已经在攻关癌症。通过把病史、诊断信息、治疗方案等数据上传上去,Watson可以配合人类医生帮助识别癌症并确定个性化的治疗方案。“Project Lucy”利用Watson的超级计算能力来帮助非洲迎接农业、经济以及社会等方面的挑战。Watson能够证明自己在独立的知识领域是有智能的,但它的智能并不全面。

也许AI的主要限制可以用G这个字母概括完。虽然我们有AI,但却没有AGI——通用人工智能(artificial general intelligence,有时候也被称为强人工智能或者完全人工智能)。其区别在于AI擅长于单个任务或者游戏,但却无法外推出策略或者技术并将其应用到其他场景或者领域——玩井字游戏你可能可以击败AlphaGo。这一限制相对应的是人类的批判性思维或者综合技能——我们可以将有关特定历史运动的知识应用到新的时尚趋势当中,或者在跟老板谈加薪的时候运用有效的营销技术,因为我们能发现二者的共通之处。但AI不能,起码现在不能。

一些人认为我们永远也不可能实现AGI;有的则认为这只是时间(和金钱)问题。去年,Kimera披露了Nigel,自诩该程序是第一款AGI。由于其beta版尚未对外发布,所以还不能证实他们是否实现了这种智能,但我们会密切关注。与此同时,AI将会不断地像我们一样去学习:通过观看YouTube视频、阅读书本来学习。至于这会令人欣慰还是令人恐惧则是另一个问题了。

 


+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

各路资本不断涌入房屋租赁领域,显然,这是一块极具诱惑的蛋糕。

2017-02-22

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业