对话UT Austin大学教授:未来5年自然语言处理最大的挑战在哪里?

香侬科技·2018-07-04 20:34
本期请到了德克萨斯大学奥斯汀分校计算机系教授、人工智能实验室主任Raymond J. Mooney,其团队正参与可解释AI项目(XAI)的研究工作,开发可解释的问答系统(EQUAS)。

编者按:本文来自微信公众号“香侬科技”,36氪经授权发布。

德克萨斯大学奥斯汀分校计算机系教授、人工智能实验室主任Raymond J. Mooney带领他的人工智能小组研究了多个领域,目前他的主要研究方向是自然语言处理和计算语言学。

香侬科技:

您有一些论文是关于将逻辑方法和分布语义相结合的(e.g.,Beltagy et al. 2016),这种综合方法显然有很多优点。如果让您对只研究这两种方法中的一种的学者说几句,请他们考虑结合这两种看似不相容的方法,您会说什么?

Mooney:

我将强调诺贝尔奖得主、心理学家丹尼尔卡内曼在他的书Thinking Fast and Slow中讨论的“快速思考和慢速思考”之间的区别。

逻辑学方法非常擅长利用复杂的符号推理来综合不同的事实,这是回答含有量词和逻辑连接词的复杂问题所必需的,例如“巴拉克•奥巴马在约翰•肯尼迪去世前还是后出生?”或者“Woody Allen是与Diane Keeton一起制作的电影更多还是和Mia Farrow更多?”。这是“慢速思考”。分布和神经方法在“模式识别”方面更好,并且在特定情境下可以快速直观地做出关于优选词义或句法结构的决策。这是“快速思考”。人类推理和语言理解需要恰当地结合这两者。如果想要像人一样高效地理解语言,我认为我们需要建立同等擅长“快速”和“慢速”思考的计算系统。

香侬科技:

近年来,深度学习模型的可解释性受到了很多关注,领域中有很多方法被提出以解释深度神经网络的行为(解释性热图 explanatory heat-map,自然语言等)。在您的工作中,您和您的同事曾证明,利用解释性热图可以改善多个当下最先进的基于图像的问答系统(Rajani and Mooney, IJCAI 2017 Workshope XAI,Rajani and Mooney, NIPS 2017 ViGIL)。那么您认为,一般来说增强深层神经网络的可解释性能够帮助我们建立更好的模型吗?为什么?

图1.通过解释性热图来增强深度学习模型的可解释性。图片来源于Rajani and Mooney,NIPS 2017 Workshop ViGIL。

Mooney:

深度学习模型的“不透明性”和“黑匣子”的特征被公认为是限制其发展和用户的信任程度的因素。因此,一年前,美国国防高级研究计划局(DARPA)开始了可解释人工智能(XAI)项目,试图开发更透明的深度学习系统。深度学习的爱好者们声称他们已经从机器学习中删除了“特征工程”(feature engineering),因为他们的模型可以自己学习到特征。

然而,“黑匣子”仅仅是从“特征工程”转移到了“神经网络结构工程”(network architecture engineering)中的设计层数,每层中的神经元数量,它们的连接方式以及连接各层时用到的函数(例如softmax,线性整流函数ReLU或平均池化mean-pooling)。

如果深度网络可以提供解释,它或许就可以帮助这些开发人员更好地理解系统出错的原因。不过,我认为解释的真正作用是支持用户而不是开发人员。通过提供解释,用户可以开始更多地相信系统并理解它们是如何做出决定的,更关键的是当系统不能提供容易理解的解释时,知道哪些结论是不能相信的。

香侬科技:

您的许多工作都集中在主动学习和迁移学习上(e.g.,Acharya et al. SDM 2014,Acharya, PhD Thesis, 2015)。显然这对于人机交互非常重要,因为在该场景下获得有标注的数据的成本是非常高的。请问在实验室中验证的算法是否容易推广到现实生活场景?将实验室开发的主动学习和迁移算法应用于日常情况的最大障碍是什么?

Mooney:

主动学习和迁移学习都是有用的技术,可以减少学习新任务所需的监督量。我们最近在机器人应用中探索的主动学习的特殊变体就是我们所说的“基于机会的主动学习”(opportunistic active learning)。在普通的“基于池”("pool-based")的主动学习中,系统可以随时询问整个未标注样本池中任何一个的标注。

但是,在机器人环境中,你正在为特定用户完成特定任务,并且必须决定是否应询问用户当前环境中的某个物体的标签,而这个问题可能与当前任务无关。我们开发了一种强化学习(Reinforcement Learning)方法,该方法可以学习到一种策略,从而最优地决定在特定环境下何时以及要询问哪些问题。

虽然这些系统会因为提出与用户当前任务无关的问题而困扰用户,获得小的负反馈。然而,一个好的问题可以让系统学习到一些使其能够更快地解决用户接下来的任务的东西,并会获得巨大的正反馈。使用强化学习的系统可以学习到能够最大化其长期奖励的询问策略,用现在较小的损失,换取稍后较大的潜在收益。

香侬科技:

您的大量工作集中在连接语言和感知(如视觉和触觉)上(e.g.,Thomason et al. AAAI 2018,Thomason and Mooney,IJCAI 2017),这是自然语言处理中的一个经典问题,即语意落地(semantic grounding)。但也有许多自然语言处理任务似乎不需要语意落地(语言建模,机器翻译等)。您为什么认为在某些情况下建立语言和感知的联系是必要的?这样做的代价和好处是什么?

图2.通过对名词短语的观测特征向量(observation feature vectors)进行聚类来推导其语义。图片摘自Thomason and Mooney, IJCAI 2017。

Mooney:

在许多自然语言处理任务中,语言和人的感知及动作有明显联系,这时语意落地最为重要。涉及机器人学、计算机视觉和计算机图形的许多应用都符合这一要求,例如用自然语言给机器人指令,机器理解或回答关于图像和视频的问题,以及生成图形图像和视频。

然而,许多抽象概念无法直接落地为感知觉体验,如“博士申请人数量显著上升”中的“上升”,它并不是视觉上可以看得见的物理上升,就需要我们根据它们原有的语意落地的隐喻用法推导出引申含义(参见Lakoff和Johnson的“Metaphors we Live By”)。因此,理解这些词语原本的语意落地,对理解它们的隐喻有很大帮助,即使这时已经不直接涉及人的感知和行为。

香侬科技:

过去您和您的学生的许多研究项目与人类和机器人的互动关系密切(e.g., Thomason et al., CoRL 2017,Thomason et al., Robo NLP2017)。您觉得建立人人交互的模型与建立人机交互的模型有什么区别呢?当您在研究人机交互中的语言学习时,您遇到了哪些特别的挑战或机会?

图3. 在Thomason, Padmakumar, Sinapov et al., CoRL 2017中,实验者首先用自然语言向机器人描述桌2(测试集)上某一物体,然后机器人针对桌1和桌3(训练集)上的物体进行发问,实验者回答。最后机器人猜测实验者描述的是桌2上的哪个物体。

Mooney:

与人类相比,机器人执行复杂任务的能力仍然非常初级。我们在研究机器人掌握语言时曾遇到的主要问题之一是找到足够复杂,因此需要由丰富多样的语言来表述的任务,同时又不能太难,不然他们就根本无法完成。

我们曾主要研究让机器人寻找并把某一物体从一个位置送到另一个位置的任务,其中物体和位置可以用名词短语的组合来描述,例如“把冰箱旁边的蓝色马克杯拿到Ray办公室旁边的会议室去”。即使是这样看似简单的任务,让机器人能够准确无误地选择、传送这些物体也是非常具有挑战性的。

人机交互(Human Robot Interaction,HRI)是一个复杂的领域,自然语言只是其中的一部分。让机器人理解手势和其他非语言的交流也非常具有挑战性。目前,与机器人进行交流其实并不令人满意,与和人进行交流时的体验截然不同,而它们无法理解自然语言只是问题的一部分。

香侬科技:

在过去,您做了很多有影响力的工作,并发表了许多被广泛引用的论文。作为一名自然语言处理领域的学者,您的研究方法随着时间的推移是如何变化的呢?关于对科研项目的良好品味的培养,您有什么想与学生们分享的吗?

Mooney:

在选择研究问题这方面我很幸运,在我开始研究这些问题(例如语言和视觉的整合)之后,它们变得非常流行。但我确实有一些这方面的建议:其一,我不喜欢研究目前非常流行的问题。因为你很难跟上这个问题所有相关工作的进展,并提出一个其他人都没想到的想法。所以我避免了当前的“热门话题”。

其次,我大概每六年转换一次我正在做的工作,这差不多是博士生导师引导一个博士解决一个科研难题的时间。在研究了一个问题大约6年后,我觉得自己对这个问题的看法变得过于固定、僵化,让我不再能创造性地思考这个问题,所以我会去看看其他东西。而在经过足够的时间让我的思想发生了变化之后,再回过头来看我过去曾经研究的问题是很有意思的。比如,我在80年代写博士论文时曾研究了通过“脚本学习”来处理文本,而最近我又与我的博士生Karl Pichotta一起以深度学习为基础,用全新的视角重新回来研究它。

最后,我是跨越传统界限的“跨学科”工作的忠实信徒。早在20世纪90年代,那时自然语言处理和机器学习完全不同,还是人工智能的两个不相干的子领域,我就尝试将最新的机器学习想法应用于自然语言中的比较难的问题,如语义分析和信息提取。幸运的是,现在机器学习和自然语言处理有了紧密的联系,几乎所有人都将二者结合在一起。我对语意落地研究的兴趣则是为了跨越自然语言处理与计算机视觉及机器人学之间的界限。我目前感兴趣的两个领域是结合自然语言处理和计算机图形学,特别是从自然语言描述中生成三维动画视频; 以及将自然语言处理和软件工程集成在一起,比如将自然语言转化为代码,以及代码变化时自动修改注释。大多数创造性的灵感都来源于整合以前那些看似风马牛不相及的想法。打破传统学科界限,带来了许多将两个截然不同领域结合起来的可能性。

香侬科技:

我们都知道,目前在自然语言领域有很多分领域,您自己的研究就覆盖了很多不同领域。那么您认为在未来5年自然语言处理最大的挑战在哪里?

Mooney:

我认为上面的采访中谈到的许多问题仍然是自然语言领域最大的挑战。弄清楚如何有效地将符号、逻辑意义表示与词/句向量分布表示(distributional representation)相结合,是一个重要的问题,然而很少有研究人员探索它。

另外,全面考虑语言各个层级间(语音,句法,词汇,语义和语用等)的相互作用,来消除歧义,也是一个重要的挑战。此外,我相信自然语言处理和计算机图形学的结合也有许多未探索的新机会,如根据自然语言描述自动生成复杂的图像和视频。然而,要机器实现对自然语言完全的理解,期待其达到人类的理解能力,还有很长的路要走,毕竟这一领域的各个方面都存在着许多具有挑战性的问题。

关于嘉宾:

德克萨斯大学奥斯汀分校计算机系教授、人工智能实验室主任Raymond J. Mooney带领他的人工智能小组研究了多个领域,目前他的主要研究方向是自然语言处理和计算语言学。

其本人曾在2008-2011年间担任国际机器学习协会(ICML主办方)主席,曾多次担任ICML、ACL、AAAI、EMNLP、NAACL等会议主席或领域主席,现在为美国计算机学会(ACM)、国际人工智能学会 (AAAI)、国际计算语言学会(ACL)三会会士。

他发表了百余篇重要的论文,Google Scholar上有近3万的论文引用量,其中2007年发表的关于语义分析的文章获得了ACL 2007会议的最佳论文奖。目前正参与可解释AI项目(XAI)的研究工作,开发可解释的问答系统(EQUAS)。

参考文献:

Thomason J, Sinapov J, Mooney R J, et al. Guiding exploratory behaviors for multi-modal grounding of linguistic descriptions [J].Intelligence (AAAI-18), 2018.

Thomason J, Mooney R J. Multi-modal word synset induction [C].Proceedings of the 26th International Joint Conference on Artificial Intelligence (IJCAI-17). 2017.

Lakoff G, Johnson M. Metaphors we live by [M].University of Chicago Press, 2008.

Thomason J, Padmakumar A, Sinapov J, et al. Opportunistic active learning for grounding natural language descriptions [C].Conference on Robot Learning. 2017: 67-76.

Corona R, Thomason J, Mooney R. Improving black-box speech recognition using semantic parsing [C].Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 2: Short Papers). 2017, 2: 122-127.

Rajani, N.F. and Mooney, R.J., Stacking With Auxiliary features.Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (IJCAI), Melbourne, Australia, pp. 2634– 2640, Aug. 2017.

Rajani N F, Mooney R J. Ensembling visual explanations for VQA [J].Proceedings ofthe NIPS 2017 workshop on Visually-Grounded Interaction and Language (ViGIL), Dec. 2017.

Acharya A, Mooney R J, Ghosh J. Active multitask learning using both latent and supervised shared topics [C].Proceedings of the 2014 SIAM International Conference on Data Mining. Society for Industrial and Applied Mathematics,2014: 190-198.

Acharya A. Knowledge transfer using latent variable models [D]. 2015.

Beltagy I, Roller S, Cheng P, et al. Representing meaning with a combination of logical and distributional models [J].Computational Linguistics, 2016, 42(4): 763-808.

Kahneman D, Egan P. Thinking, fast and slow [M].New York: Farrar, Straus and Giroux, 2011.

关于来源:

《香侬说》为香侬科技打造的一款以机器学习与自然语言处理为专题的访谈节目。由斯坦福大学,麻省理工学院, 卡耐基梅隆大学,剑桥大学等知名大学计算机系博士生组成的“香侬智囊”撰写问题,采访顶尖科研机构(斯坦福大学,麻省理工学院,卡耐基梅隆大学,谷歌,DeepMind,微软研究院,OpenAI等)中人工智能与自然语言处理领域的学术大牛, 以及在博士期间就做出开创性工作而直接进入顶级名校任教职的学术新星,分享他们广为人知的工作背后的灵感以及对相关领域大方向的把控。

+1
2

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

走心的文案则会努力激发用户欲望,让用户看完文案就行动起来。

2018-07-04

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业