7月30日,百度推出了ERNIE(Enhanced Representation through kNowledge IntEgration)的升级版本——ERNIE 2.0,这是一个针对中英文对话设计的AI框架。该框架在16个自然语言处理任务中表现优异,超越了BERT和XLNet,达到了最优水平。目前,ERNIE 2.0的代码和英文预训练模型已经开放源代码。
近年来,无监督预训练模型在自然语言处理领域取得了显著进展。这类模型通过大规模数据集进行训练,能够捕捉单词和句子的共现信息,从而在语言推断、语义相似度、命名实体识别等方面取得出色成果。然而,除了共现信息外,语法、语义等更为复杂的信息同样重要。例如,命名实体识别可以提供概念信息以及句子间的顺序和距离关系;文档层面的语义相似性则有助于模型更好地理解语义。因此,研究者们尝试通过引入更多类型的任务来提升模型效果。
基于上述理念,百度提出了ERNIE 2.0,这是一种持续学习的语义理解预训练框架。它能够通过多任务学习,逐步增加词汇、语法和语义层面的任务,从而全面捕捉训练语料中的多种信息。此外,当引入新任务时,该框架不仅能不断更新分布式表示,还能记住之前任务的知识。
与传统的预训练方法不同,ERNIE 2.0通过不断增加预训练任务,帮助模型更高效地学习词汇、句法和语义表征。这使得ERNIE 2.0不仅在多个任务中达到最优效果,也为开发者提供了构建自身NLP模型的新思路。
百度将ERNIE 2.0在GLUE数据集和9个中文数据集上的表现与其他预训练模型进行了对比。结果显示,在7个GLUE任务中,ERNIE 2.0优于BERT和XLNet;在9个中文NLP任务中,ERNIE 2.0的表现也超过了BERT。具体来说,ERNIE 2.0在基于DuReader的数据集上的阅读理解、情感分析和问答任务中均取得了优异成绩。
ERNIE 2.0的成功不仅展示了其在多种自然语言处理任务中的优越性能,也为其在实际应用中的广泛推广奠定了基础。ERNIE 2.0的持续学习机制使其能够适应更多类型的任务,从而不断提升模型效果。未来,ERNIE 2.0有望在更多领域发挥作用,推动自然语言处理技术的发展。