谷歌搜索用上BERT,10%搜索结果将改善
作者头像
  • 湖水是你的眼神
  • 2019-10-30 18:34:42 4

如何提升搜索引擎呈现用户所需结果的精准度是谷歌工程师面临的一大挑战。近期,谷歌宣布在搜索引擎中应用了 BERT 预训练模型,使搜索引擎能够更好地理解用户的搜索意图,甚至能捕捉到某些不起眼的介词在搜索语句中的关键作用。这一改进让用户能获取更为相关的结果。

为什么谷歌搜索要用 BERT?

谷歌搜索副总裁在博客中提到:“多年来,我学到了一条道理,那就是人类的好奇心是无穷无尽的。”谷歌每天要处理数十亿次搜索请求,其中有15%是前所未见的新查询。因此,必须开发新的方法来应对这些未知的查询。

用户在搜索时往往难以找到最佳的查询方式,因为有时候他们并不清楚应该用哪些词汇,或者如何组合这些词汇。由于用户可能在搜索时并不具备充分的知识,所以查找结果前可能会遇到困难。

搜索的核心在于理解语言。搜索引擎的任务是理解用户的搜索意图,并从网络中找到有用的信息,无论查询中的单词如何排列组合。复杂的或对话式的查询往往难以处理。人们倾向于输入他们认为搜索引擎能理解的内容,但实际上这些方式并不总是自然且直接的。

为了解决这些问题,谷歌的研究人员决定在搜索引擎中引入更为强大的自然语言处理模型——BERT。

BERT 对搜索引擎的影响

去年,谷歌开源了用于自然语言处理的预训练模型——BERT。BERT一经发布便刷新了多项自然语言处理任务的最佳表现记录,并在GLUE基准测试中名列前茅。尽管后来被超越,但许多后续的自然语言处理模型仍然基于BERT进行了改进。

BERT的成功源于谷歌在Transformer架构上的突破。Transformer模型能够同时处理一个句子中的所有单词,而非逐个处理。基于此,BERT模型可以通过上下文更好地理解查询语句背后的真实意图。

不过,仅靠软件的改进是不够的。由于BERT模型非常复杂,传统的硬件难以胜任。因此,谷歌采用了最新的Cloud TPU来优化搜索结果,从而达到更好的效果。

BERT 的实际应用

BERT的应用主要体现在搜索排名和精选摘要(featured snippet)两个方面。引入BERT后,谷歌声称它可以帮助搜索引擎更好地理解美国(英文)10%的搜索。随着时间的推移,谷歌计划将这一技术推广到更多语言和地区。

使用BERT后,对于较长或对话性较强的查询,或者在“for”、“to”等介词至关重要的句子中,谷歌搜索引擎将能更好地理解查询中的词语关系。用户可以用更加自然的方式进行搜索。

为了实现这些改进,谷歌进行了大量的测试,以确保改动更加实用。以下是一些示例,展示了BERT在理解意图方面的强大能力。

例如,当用户搜索“2019年巴西旅客去美国是否需要签证”时,“to”及其与其他单词的关系对于理解这句话的含义至关重要。在此之前,谷歌的搜索算法无法理解这类连接词的重要性,所以往往会返回错误的结果。但在BERT的帮助下,搜索引擎能够理解这句话的核心意思,知道“to”这个简单的词在句子中扮演的重要角色,因此可以返回更相关的结果。

再如,当用户搜索“美容师在工作中需要站立多久”时,BERT可以理解“stand”在这里是指一种身体素质要求,而不是指“stand-alone”(独立)。这使得搜索引擎能够给出更有用的答案。

BERT还可以帮助我们更好地理解语言中的细微含义,这是计算机以前难以做到的。

BERT 不仅适用于英语搜索

谷歌表示,他们将把BERT应用于全球多种语言的搜索中。BERT的一个特点是,可以从一种语言中学到的东西应用到其他语言中。因此,他们可以将从英语中得到的改进模型应用到其他语言中。

此外,谷歌还利用BERT改善了20多个国家的精选摘要功能,在韩语、印地语、葡萄牙语等语言中取得了显著进展。

搜索之路,永无止境

无论你想搜索什么内容,无论你使用哪种语言,谷歌都希望用户能够用最自然的方式进行搜索。即使有了BERT的帮助,谷歌搜索仍然无法保证100%完美的结果。未来,谷歌将继续改进自己的搜索系统。

    本文来源:图灵汇
责任编辑: : 湖水是你的眼神
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
用上搜索结果改善搜索谷歌BERT10
    下一篇