一文纵览自然言语生成的发展
作者头像
  • 蔡慧娟
  • 2020-06-18 07:20:44 5

自然语言生成的发展历程

人们对人工智能的兴趣随着科幻电影的兴起而日益浓厚。每当提到“人工智能”,人们往往会联想到《终结者》、《黑客帝国》、《我,机器人》等经典影片。

尽管机器人具备独立思考的能力还有待实现,但在机器学习和自然语言处理领域,近年来已经取得了显著进展。个人助理(如Siri和Alexa)、聊天机器人以及问答机器人等应用正在悄然改变人们的生活方式。

理解和提取复杂多变的语言中的意义,推动了自然语言理解和自然语言生成(NLG)领域的快速发展。据Gartner预测,到2019年,自然语言生成将成为现代商业智能和分析平台的标准功能之一。本文将回顾自然语言生成的历史,并展望其未来。

什么是自然语言生成?

自然语言生成通过预测句子中的下一个单词来传递信息。借助语言模型,可以预测下一个可能出现的单词,即找到单词在序列中的概率分布。例如,预测“I need to learn how to __”中的下一个单词,语言模型会计算出“write”、“drive”等词的概率。高级神经网络,如循环神经网络(RNNs)和长短时记忆网络(LSTMs),能够处理较长的句子,从而提高预测的准确性。

马尔可夫链

马尔可夫链是最早的自然语言生成算法之一。它通过当前单词预测句子中的下一个单词。例如,模型通过训练句子“I drink coffee in the morning”和“I eat sandwiches with tea”来预测。模型会发现“drink”后面出现“coffee”的概率为100%,而“I”后面出现“eat”和“drink”的概率均为50%。然而,马尔可夫链只能考虑当前单词,无法识别当前单词与其他单词之间的关系,导致预测结果不够精确,限制了其在实际应用中的效果。

循环神经网络(RNN)

神经网络灵感来源于人脑的工作原理,通过建模输入数据与输出数据之间的非线性关系,提供了新的计算方法。循环神经网络(RNN)是一种特殊的神经网络,能够捕捉输入数据中的序列特征。在处理序列中的每一个项目时,RNN能够存储之前的信息,从而更好地预测未来的内容。与马尔可夫链不同的是,RNN不仅关注当前单词,还考虑已处理过的单词。

应用RNN进行自然语言生成

在每次RNN迭代过程中,模型会在其“记忆”单元中存储出现过的单词,并计算下一个单词出现的概率。例如,在预测“We need to rent a __”中的下一个单词时,模型会记住在词典中每个单词随后面单词出现的概率。“house”或“car”比“river”和“dinner”更有可能出现在这个位置。“记忆”单元会选择概率较高的单词进行排序,然后继续下一次迭代。然而,RNN面临一个重大问题——梯度消失。随着序列长度增加,RNN无法存储很久以前的单词信息,只能依赖最近的单词进行预测,这限制了其生成连贯长句的能力。

长短期记忆网络(LSTM)

长短期记忆网络(LSTM)是RNN的一种变体,更适合处理长序列。LSTM结构包括四个部分:细胞、输入门、遗忘门和输出门。在处理“I am from Spain. I am fluent in _”这类句子时,LSTM会更加关注前面提到的“Spain”,并将相关信息存储在细胞中。当遇到句号时,遗忘门会清除无关信息,使模型能够专注于相关的内容。LSTM及其变体能够解决梯度消失问题,生成连贯的句子,但它们的计算成本较高,训练难度较大。

Transformer

Transformer在2017年由Google团队首次提出,引入了一种名为“自注意力机制”的新方法。这种模型在自然语言处理任务中广泛应用,如语言建模、机器翻译和文本生成。Transformer模型由一组编码器和一组解码器组成,编码器处理任意长度的输入,解码器负责生成输出句子。每个单词的最终表示由空心圆表示,通过自注意力机制获取所有其他单词之间的关系,生成新的表示形式。与LSTM相比,Transformer减少了步骤数量,能够直接捕捉句子中所有单词之间的关系,无需考虑单词的位置。

应用Transformer进行自然语言生成

Transformer模型同样适用于自然语言生成,最著名的模型是OpenAI提出的GPT-2。该模型通过集中注意力于与预测下一个单词相关的单词,更好地学习并预测句子中的下一个单词。例如,在生成“Her gown with the dots that are pink, white and __”时,通过自注意力机制分析前面出现的颜色(粉色和白色),确定需要预测的单词也是颜色,最终模型输出“blue”。自注意力机制能够帮助模型选择性地关注句子中每个单词的作用,而不仅仅是记住一些特征。

自然语言生成的未来

本文回顾了自然语言生成技术的发展历程,从最初的马尔可夫链预测,到如今利用自注意力机制生成连贯文章。虽然我们仍处于生成模型发展的初级阶段,但未来将有更多的创新,如自主生成文本。此外,生成模型也将应用于图像、视频和音频等领域。

    本文来源:图灵汇
责任编辑: : 蔡慧娟
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
一文纵览生成言语自然发展
    下一篇