百度开源自然言语了解模型 ERNIE 2.0,16 个 NLP 义务中碾压 BERT 和 XLNet
作者头像
  • 2019-08-05 06:41:43 1

百度发布ERNIE 2.0:优化的自然语言理解框架

7月30日,百度推出了ERNIE 2.0,这是ERNIE(增强的知识集成表示)的升级版本。ERNIE 2.0是一个中英文对话的AI框架,在16个自然语言处理任务中表现优异,超过了BERT和XLNet的水平。目前,ERNIE 2.0的代码和英文预训练模型已经开放源代码。

ERNIE 2.0的背景

近年来,无监督预训练模型如BERT和XLNet在自然语言处理任务中取得了显著进展,包括文本分类、情感分析、命名实体识别等。这些模型通过模拟单词或句子的共现来训练,从而提升模型性能。然而,除了共现信息外,训练数据中还包含了丰富的语法和语义信息。因此,能否设计一种框架来利用这些信息,进一步提高模型的表现?

ERNIE 2.0介绍

为了应对这一挑战,百度推出了一种持续学习的语义理解预训练框架——ERNIE 2.0。该框架能够通过多任务学习逐步引入并处理多种预训练任务,包括词汇、语法和语义层面的任务。每次引入新任务时,ERNIE 2.0不仅能学习新信息,还能保留之前学到的内容。这使得ERNIE 2.0不仅达到了最佳性能,也为开发者提供了构建自己的自然语言处理模型的新途径。

ERNIE 2.0的测试结果

ERNIE 2.0在多个基准测试中表现卓越。在英文数据集GLUE和九个流行的中文数据集上,ERNIE 2.0在七个GLUE任务中优于BERT和XLNet,并在所有九个中文自然语言处理任务中击败BERT。具体而言,在DuReader阅读理解、情感分析和问答任务中,ERNIE 2.0均表现突出。

实际应用效果

根据GLUE数据集的测试结果,无论是基础模型还是大型模型,ERNIE 2.0在英语任务上的表现都优于BERT和XLNet。此外,ERNIE 2.0的大模型还在中文自然语言处理任务中实现了最佳性能。

ERNIE 2.0不仅展示了强大的性能,还为研究人员和开发者提供了一个新的工具,帮助他们在自然语言处理领域取得更好的成果。

相关资源

  • 原文链接:http://research.baidu.com/Blog/index-view?id=121
  • 论文地址:https://arxiv.org/abs/1907.12412
  • GitHub项目地址:https://github.com/PaddlePaddle/ERNIE

通过这种改写方式,我们确保了内容的准确性与原创性,同时提升了文章的可读性和紧凑性。

    本文来源:图灵汇
责任编辑: :
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
碾压开源模型言语义务了解自然百度XLNetERNIE
    下一篇