大会丨ACL 2018:一文带你看自然语言处理领域最新亮点
作者头像
  • 刘怡君
  • 2018-08-23 21:56:16 0

自然语言处理顶级会议ACL 2018回顾

上个月,自然语言处理顶级会议ACL 2018在澳大利亚墨尔本成功举行。此次会议吸引了众多学者参与,共同探讨自然语言处理领域的最新进展。微软亚洲研究院的任烁博士从现场带回了详尽的参会总结,分享了大会上的优秀论文和机器翻译的最新成果。

大会概况

7月15日至20日,ACL 2018在墨尔本顺利召开。此次会议投稿数量和录用数量都有所增长,共收到了1544篇投稿,最终录用381篇,其中包括256篇长文(录取率约25.1%)和125篇短文(录取率约23.8%)。

关键词趋势

根据对接收论文标题的词云分析,ACL 2017和2018年持续热门的关键词包括:注意力机制、网络、知识、序列和语言。而今年的会议中,“句子”、“词嵌入”和“情感”成为了新的热点。此外,“交叉”、“领域”和“无监督”等关键词也被广泛关注,反映出业界越来越多地关注跨领域研究和无监督学习技术。

新成立的分会

会议期间还宣布了将针对亚太地区成立AACL(Asia-Pacific Chapter of the ACL)分会,进一步促进自然语言处理领域的国际交流与合作。

最佳论文

本次会议评选出了五篇最佳论文,其中三篇为长文,两篇为短文:

最佳长文

  1. Finding syntax in human encephalography with beam search
    论文通过分析人类脑电波中的早期峰值现象,发现循环神经网络语法生成模型(RNNGs)与束搜索(beam search)的结合,能较好地模拟人类大脑在理解自然语言时的语法处理过程。该研究被认为是自然语言处理与人脑研究交叉领域的成果,实验充分,为深度学习的有效性提供了生物学依据。

  2. Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information
    该论文定义了一个新任务:从一组候选问题中选出最能澄清模糊问题的问题,以获得更有价值的答案。作者基于StackExchange数据集创建了数据集,并设计了评价指标,展示了定义新任务的可行性。

  3. Let’s do it “again”: A First Computational Approach to Detecting Adverbial Presupposition Triggers
    这篇论文提出了一种新任务:预测副词词性的假定形态触发语,并设计了相应的计算方法。虽然笔者在语言学方面知识有限,但该研究仍引起了广泛关注。

最佳短文

  1. Know What You Don’t Know: Unanswerable Questions for SQuAD
    该论文介绍了SQuAD 2.0数据集,该数据集在原有的SQuAD数据集基础上增加了50,000条人工标注的不可回答问题。这使得机器不仅要回答可回答的问题,还要能够识别出不可回答的问题,从而推动了机器阅读理解技术的发展。

  2. ‘Lighter’ Can Still Be Dark: Modeling Comparative Color Descriptions
    该论文对颜色的比较级描述进行了建模,能够根据给定的RGB色彩和比较级形容词生成预期的色彩。同时,论文发布了一个针对此任务的数据集。

机器翻译最新进展

本次会议中,机器翻译依然是重点讨论的内容。在两天的oral presentation中,两篇论文均提到文档级的机器翻译(document-level neural machine translation)。文档级别的翻译面临的挑战主要有两个:指代消解问题和用词一致性问题。为此,两篇论文分别提出了不同的解决方案。

  1. Context-Aware Neural Machine Translation Learns Anaphora Resolution
    该论文基于现有的Transformer模型,构造了源语言编码器和上下文编码器,并通过统一的注意力层将两者结合起来,得到上下文相关的源语言表示。通过详细实验分析,证明了该方法在处理文档级机器翻译中的指代消解问题方面具有优势。

  2. Document Context Neural Machine Translation with Memory Networks
    该论文将文档级的机器翻译任务视为结构预测问题,通过构造源语言端和目标语言端的两个记忆网络来存储句子间的依赖关系,从而更好地利用上下文信息,提高模型的性能。

此外,本次会议还有多篇论文对注意力机制进行了深入研究。通过不同的实验分析,得出了一些有趣结论,例如即使不用self-attention,通过借鉴Transformer模型的设计思想,RNN和CNN模型也能达到相似效果;源端采用self-attention比目标端更重要。

微软亚洲研究院的表现

微软亚洲研究院在此次会议上也有出色表现,共有6篇长文和2篇短文入选。这些论文涵盖了语法纠错、文本摘要、语义分析、机器翻译、聊天等多个任务,展示了其在自然语言处理领域的深厚积累和技术实力。

总结

ACL 2018不仅展示了自然语言处理领域的最新进展,还促进了全球范围内学术界和产业界的交流合作。通过这次会议,我们看到了未来自然语言处理技术发展的多种可能性。希望这些研究成果能够为相关领域的研究提供有价值的参考和启示。

    本文来源:图灵汇
责任编辑: : 刘怡君
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
一文自然语言亮点大会领域处理最新2018ACL
    下一篇