NLPer复工了!先看看这份2019机器学习与NLP年度清点吧
作者头像
  • 周晶晶
  • 2020-02-14 08:48:56 4

2019年是机器学习和自然语言处理领域迅速发展的关键一年。研究者Sebastian Ruder从十个方面总结了这一年内的主要进展,这些进展对未来的研究方向具有重要意义。

通用无监督预训练

2019年,无监督预训练在自然语言处理(NLP)领域取得了显著成就,尤其是BERT及其变体的广泛应用。这些模型不仅在文本处理上表现出色,还在多模态场景中发挥作用,如结合图像和视频内容。此外,无监督预训练也在其他领域得到应用,例如在生物信息学中用于蛋白质序列预测。在计算机视觉领域,自监督学习方法也被广泛采用,如CPC、MoCo和BigBiGAN。在语音识别领域,多层卷积神经网络和双向CPC也取得了较好的效果。

为什么重要?

无监督预训练减少了对标注数据的需求,为数据稀缺的领域带来了新的活力。

接下来的发展方向

未来的研究可能会集中在多模态融合方面,以实现更全面的应用。

彩票假设

“彩票假设”指的是在密集、随机初始化的神经网络中找到具有良好性能的子网络。这项研究有助于发现较小且高效的子网络,从而减少训练和推理所需的计算资源。虽然这种方法在低资源条件下仍需大量计算资源,但更稳健的一次性剪枝方法有望解决这一问题。

为什么重要?

通过找到更小且性能相近的子网络,可以大幅减少计算资源需求,提高模型迭代速度。

接下来的发展方向

未来的研究可能会探讨如何在低资源条件下更有效地寻找“中奖彩票”。

神经正切核

神经正切核(NTK)理论指出,在无限宽神经网络中,模型的行为可以近似为线性模型。尽管这种方法在理论上具有优势,但在实际应用中仍有局限性。近期的研究已经缩小了NTK与标准方法之间的差距,未来的研究可能会进一步探索NTK在实际应用中的潜力。

为什么重要?

NTK为我们提供了一种分析神经网络行为的强大工具,有助于深入了解神经网络的训练过程和泛化行为。

接下来的发展方向

未来的研究可能会致力于描述NTK与标准方法之间的差距,以推动实际应用。

无监督多语言学习

近年来,无监督预训练的发展使得多语言模型在不同语言间的泛化能力大幅提升。例如,multilingual BERT、XLM和XLM-R等模型在不同语言间表现出色,甚至在没有共享词汇表的情况下也能取得优异成绩。这些模型在无监督机器翻译等领域也取得了显著进步。

为什么重要?

这些模型使得在非英语语言中训练模型成为可能,甚至可以通过零样本迁移提高性能。

接下来的发展方向

未来的研究可能会更深入地理解这些方法的工作原理,以设计更强大的算法,并探索不同语言结构之间的关系。

更加健壮的基准测试

近年来,研究人员创建了一些旨在挑战现有模型的新数据集,如HellaSWAG。这些数据集通过人工筛选示例,确保模型难以应对。这种做法有助于推动模型的进步,使其更好地理解数据中的深层关系。

为什么重要?

现有的基准测试不足以评估模型的真实能力,需要更加健壮的数据集来推动模型的发展。

接下来的发展方向

随着模型变得更加复杂,数据集也需要不断改进,以适应新的挑战。

科学领域的机器学习和自然语言处理

机器学习和自然语言处理在科学研究中的应用取得了显著进展。例如,在蛋白质折叠预测和材料科学中,深度神经网络已被应用于解决复杂问题。此外,NLP方法在生物信息学中也显示出巨大潜力。

为什么重要?

这些技术的应用对多个领域产生了深远影响,并有助于解决实际问题。

接下来的发展方向

未来的研究可能会探索机器学习在更多科学领域的应用,如物理和化学。

解决自然语言生成中的解码错误

尽管自然语言生成(NLG)模型变得越来越强大,但它们仍然经常生成重复或毫无意义的文本。这主要是由于最大似然训练方法造成的。幸运的是,研究人员正在通过新的采样方法或损失函数来改进这一问题。

为什么重要?

NLG是NLP的基本任务之一,需要持续改进以提高模型的可靠性。

接下来的发展方向

未来的研究可能会集中在理解和修正模型中的解码误差。

加强预训练模型

2019年,研究人员开发了多种方法来增强预训练模型的能力。这些方法包括利用知识库、可执行程序和增强训练数据等。这些改进有助于模型更好地处理复杂任务,并具备更强的归纳能力。

为什么重要?

模型需要具备更强的归纳能力,以应对有限数据和复杂任务的挑战。

接下来的发展方向

未来的研究可能会结合预训练模型和可学习的组合程序,以解决更具挑战性的任务。

高效且长距离依赖的Transformer

2019年,Transformer架构得到了改进,使其能够处理长距离依赖。一些新的架构如Transformer-XL和Compressive Transformer提高了模型的效率。此外,一些方法通过采用不同的注意力机制来提高Transformer的效率。

为什么重要?

Transformer架构在NLP领域具有重要地位,任何改进都可能产生广泛的影响。

接下来的发展方向

未来的研究可能会继续关注效率更高的Transformer架构,特别是在预训练模型中。

更可靠的分析方法

2019年,越来越多的研究致力于分析模型。探针作为一种常用工具,被广泛应用于了解模型是否“理解”了词法、句法等。研究人员对分析方法的兴趣不断增加,这促使了更多可靠性的研究。

为什么重要?

为了开发更好的模型并理解其决策,我们需要更可靠的方法来解释模型的预测。

接下来的发展方向

未来的研究可能会提供更多人工书写的解释数据集,以提高模型分析的可靠性。

以上便是2019年NLP领域的总结。可以看出,NLP仍然是一个充满活力的领域,许多理论和技术正在快速发展。

    本文来源:图灵汇
责任编辑: : 周晶晶
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
复工清点这份机器年度看看学习NLPer2019NLP
    下一篇