马斯克创建OpenAI的意图的确令人钦佩,但研究方向为何会遭到质疑?

宇多田·2017-01-19 23:13
这是一个很独特的专业视角。

编者按:马斯克与孵化器 Y Combinator总裁阿尔特曼联合创立的非营利性人工智能研究公司OpenAI一直背负着双重使命:

一方面确保人工智能(AI)技术不会伤害人类,另一方面尽可能确保这项技术获得的利益分配更广泛、更均衡。

这个组织建立的初衷是美好的,其一向坚持的“以负责的态度来开发AI技术”也的确非常重要。但是,其关注领域却一直在被业内人士所诟病——过于狭窄,不够实用。

例如,TechCrunch的知名记者 Michael Schmidt就指出,尽管 OpenAI 一直在强调“强化学习”(Reinforcement Learning)的作用。但实际上,“强化学习”是一种最不常用的AI技术,它既不会直接威胁人们和企业的安全,也不会直接为我们带来价值。

与之相反,OpenAI应该改进那些已经应用更加广泛的AI技术形式,因为它们已经对人类构成了重大威胁(监督学习)或是给人类带来了令人震惊的好处(机器智能)。

因此,Michael Schmidt从专业角度,对强化学习(Reinforcement Learning)、监督学习(Supervised Learning)以及机器智能(Machine Intelligence)做了一番比较。(见解仅代表Michael Schmidt个人观点)

OpenAI认为,AI技术上存在某些完全不受控制的威胁是难以避免的。这种观点很正确。譬如,牛津大学教授Nick Bostrom著名的思维试验——“回形针最大化”(Paper-Clip Maximizer)就是一个很好的例子。

而OpenAI优先考虑的“强化学习”技术是一种机器学习算法,可应用于聊天机器人、电子游戏机等等。但有趣的是,强化学习算法通常不从数据入手,相反,该算法试图控制像机器人那样的智能体,而这样的智能体完完全全是基于它可以采取的一系列动作及其当前的状态。

值得注意的是,“强化学习”技术存在一些不足之处:它至少还需要20-30年才能真正地成熟起来,并且也不能立即用于解决大多数的商业问题。

也就是说,人们和企业并不一定非得需要聊天机器人或互动式的智能体,他们往往偏重于在他们可以分析的数据基础上获得更多数据,并专注于挖掘数据的意义与价值。

但分析师指出,从长远角度来看,强化学习最有可能塑造有感知的机器人,这项技术在未来几年里都会受到“监测”,但不该是目前高度优先考虑的技术。

监督学习带来的危机

目前,人们正在使用的一种人工智能技术可能会对社会构成更直接的威胁:标准监督学习。

但请注意,我们不考虑将人类改造成“回形针”或“灭绝人类的终结者式机器人”那些过于科幻的场景,我们只着眼于当下。

“监督学习”涉及到机器学习,需要使用过去的数据进行预测,很多时候其利用的方程式又长又复杂,以至于看起来阐述模糊,晦涩难懂。

当前许多站在机器学习与数据分析领域“最前沿”的企业都在利用“监督学习”或“黑箱建模”。随着监督学习技术日益成熟,其在业务流程中的地位变得愈发不可动摇,但也带来了一些潜在的问题。

监督学习极易受到“数据过度拟合”的影响。因此,为了涵盖并说明每个变量与历史数据点,用于解释系统工作原理的分析模型便得到了过分精细的调整,调整后便得到一个模型。但由于过去的数据主要基于样本,并不能反映出该系统更大的趋势或“规则”,因此,该模型并不能很好得推广到新的情境中。

因此,你可能最终得到的是一个只能应用于过去情况,而不适用于理解新的情况的模型。例如,如果你用监督学习算法来自动进行金融资产交易,假设这里会包含一些大萧条时期的数据。

这种情况下,算法就可能“意识”到,随着新咖啡连锁店的开业,市场可能将发生崩盘。

而这种“伪相关”可能会不知不觉地融入你的银行融资模式,甚至在下次,当类似的大型咖啡连锁店开业时,还会引发大规模的自动抛售资产行为,而这就会对金融系统产生更大的不良影响。

因为人们不知道监督学习模型该如何运作(甚至在许多情况下,连创建这些模型的人们也不清楚),因此,银行可能会因为一些未知的原因而拒绝向人们发放贷款,甚至导致患者得到错误的诊断和治疗等等。

除了“伪相关”之外,由于缺乏关于该问题的完整数据,或者遭到对手的恶性攻击,人们还也会做出不准确的预测。

但最关键的是,我们还没有准备好将所有的商业决策、医疗决定以及重要的人生决定都建立在人类无法理解的模型上。如果我们无法理解“为什么要进行某项预测”,那么这项预测就失去了它的意义,或者就不能让人们信服它是准确的。

机器智能才是最有价值的?

如果“监督学习”属于最危险的AI技术之一,那么最有价值且最鼓舞人心的技术是什么呢?部分人工智能专家给出了这个答案:机器智能。

机器智能是人工智能的一个分支,除了可以使人们和企业获利,它还能够解决我们这个时代所遇到的某些最紧迫的商业与社会问题。

机器智能可以自动从数据中查找答案并进行解析。这类技术可以自动处理原始数据,获得新的发现,并向人们解释所学到的知识。它不是一个自主的、有思想的机器人,但却可以对看似杂乱无章的数据进行筛选,针对所发生的事件及其原因,找到最有意义的变量、模式和因果解释。

当下,机器智能并没有试图构建那种可预测乳腺癌的黑盒子模型,以求帮助全球数百万患者,而是可以提供一个完全透明的模型,清楚地表明它为什么要做出这个预测。

由于人们对该模型有了见解,再加上该模型自身易于理解,就使得这种模型很有可能彻底改变交易的方式,以及通常情况下解决问题的方式。迄今为止,机器智能不具有“意识型AI”可能具备的负面影响,可以算是最接近我们的机器人科学家。

目前,机器智能在企业业务中有着非常实际的应用。譬如预测美国电力需求、确定全球气候变化模式、创造喷气式发动机新材料、 获知星系如何提高并优化玉米产量与种植模式等等。

可以想象,全世界都可以从这样的机器身上获得巨大的利益:它们可以处理现实世界的信息,并可以帮助解释没有明确答案的问题。这就是智能机器的崛起缘由之所在,也是大多数人工智能技术的不足之处——机器智能就是为解决这一问题而诞生的。

因此,马斯克与其他关注AI的大佬们转向这一方向将是明智的。

----------------这是一条绝对不能忽略的分界线------------------------------------

重磅!36氪国际新闻组要招正式职位与实习生了!!

只要你对人工智能、新能源、AR、VR、物联网有浓厚兴趣,对各种“黑科技”不能自拔,文笔与英文还不错(能看懂MIT与彭博新闻),请尽情把简历砸过来!!

在这里,你不仅能享受到海量的最新前沿科技信息,还有机会采访到国际大佬,与36氪特稿部记者共同完成具有社会影响力的稿件!总之一句:我们会尽自己所能与你共享资源~

投简历请发至以下两个邮箱:1247435168@qq.com/fubo@36kr.com(快到碗里来)

+1
2

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业