谷歌搜索用上BERT,10%搜索结果将改善

2019 年 10 月 26 日 机器之心

选自谷歌博客

作者:Pandu Nayak
机器之心编译
如何让搜索引擎呈现用户想要的结果是困扰谷歌工程师的一大难题。 最近,谷歌宣布,他们的搜索引擎用上了强大的 BERT 预训练模型,可以让搜索引擎结合语境理解用户的搜索意图,甚至能理解一些不起眼的介词在搜索语句中的重要含义。 有了 BERT 的加持,用户能在谷歌中搜到相关性更强的结果。


为什么谷歌搜索要用 BERT?


「如果要让我说出一条这些年学到的东西,那我会说『人类的好奇心是永无止境的』,」在谷歌搜索部门工作了 15 年的搜索副总裁在谷歌博客中写道。 谷歌每天的搜索量多达数十亿,其中有 15% 是从未见过的,所以必须构建一些方法来应对这些无法预料的查询。


用户在搜索的时候往往很难确定一个最好的查询组合: 我们不知道用哪些词,也不知道怎么拼。 因为有时他们打开搜索引擎就是为了学习的,所以查到结果之前未必具备相应的知识。


搜索的核心是理解语言。 搜索引擎的使命是弄清楚用户的搜索意图并从网上找到有用信息,无论查询语句中的单词如何拼写或组合。 复杂或会话性的查询通常很难处理。 人们会输入他们以为搜索引擎可以理解的问题,但其实他们用的方式并非他们在现实中自然而然使用的方式。


为了解决这些问题,谷歌的研究人员决定在搜索引擎中引入更加强大的自然语言处理模型——BERT。


BERT 对于搜索引擎有何作用?


去年,谷歌开源了用于自然语言处理的预训练模型——BERT 。 一经推出,BERT 就刷新了 11 项 NLP 任务的 SOTA 记录,登顶 GLUE 基准排行榜。 虽然榜首早已易主,但后续的很多 NLP 模型都是基于 BERT 的改进。 其影响力可见一斑。


BERT 的突破基于谷歌在 Transformer 架构上的成功。 Transformer 处理一个句子中与所有其他单词相关的单词,而不是按顺序逐个处理。 基于此,BERT 模型就可以借助某个单词前后的词来考虑其所处的完整语境,这对于理解查询语句背后的意图非常有用。


但只有软件方面的成功还不够。 用 BERT 构建的模型非常复杂,超出了传统硬件的能力范畴。 因此,谷歌选择使用最新的 Cloud TPU 结果来提供搜索结果,以达到更好的效果。


用上 BERT 意味着什么?


BERT 在谷歌搜索中的应用体现在排名和精选摘要(featured snippet)两个方面。 将 BERT 应用于搜索排名之后,谷歌宣称它可以帮助搜索引擎更好地理解美国(英文)10% 的搜索。 谷歌表示,随着时间的推移,他们还会将结果扩展至更多语言和地区。


用上 BERT 之后,对于比较长、会话性比较强的查询,或者在「for」、「to」等介词比较重要的语句中,谷歌搜索引擎将能够理解查询语句中词的上下文。 用户可以用更加自然的方式进行搜索。


为了启用这些改进,谷歌进行了大量测试,以确保这些改变更加有用。 以下是一些评估示例,可以证明 BERT 在理解意图方面的强大能力。


在以下示例中,用户搜索的语句是「2019 brazil traveler to usa need a visa」。 在这个句子中,「to」及其与其他单词的关系对于理解句子含义非常重要。 这是一个巴西人要去美国旅游的事件,而不是一个美国人去巴西旅游。 在此之前,谷歌的搜索算法无法理解这种连接词的重要性,所以会返回美国公民去巴西旅游的结果。 在 BERT 的帮助下,搜索引擎将能够理解搜索语句的核心含义,知道「to」这种简单词在句子中发挥的重要作用,因此能够返回相关性更强的结果。

我们来看另一个搜索语句「do estheticians stand a lot at work」。 用上 BERT 之前,谷歌搜索引擎用的是匹配关键词的方法,用搜索结果中的「stand-alone」匹配查询语句中的「stand」。 但根据语境,「stand」在搜索语句中的含义并非如此。 但 BERT 能够理解此处的「stand」是与工作相关的一种身体素质要求,因此会给出更加有用的答案。

下面还有一些例子,从中可以看出,BERT 能够帮助帮助我们掌握语言的细微含义,这些是计算机理解不了的。


能用上 BERT 的不止英语搜索


谷歌表示,他们会将 BERT 应用到全球各种语言的搜索中。 这种模型的一大特点就是能将从一种语言中学到的东西应用到其他语言中。 因此,他们可以将从英语中得到的改进模型应用于其他语言。


他们还用 BERT 改进了 20 多个国家的精选摘要,在韩语、印地语、葡萄牙语中取得了显著进展。

搜索问题,永无止境


无论你想要搜索什么东西,无论你使用哪种语言,谷歌希望人们都可以使用最自然的方式进行搜索。 但即使是 BERT 加持,谷歌搜索或许仍然无法让人能够获得 100% 完美的结果。 未来,谷歌仍会持续改进自己的搜索系统。

原文链接: https://blog.google/products/search/search-language-understanding-bert


参选报名日期 2019 年 10 月 23 日~2019 年 12 月 15 日
评审期 2019 年 12 月 16 日~2019 年 12 月 31 日
奖项公布 2020 年 1 月


点击 阅读原文 ,查看更多详情并报名参选。
登录查看更多
0

相关内容

谷歌公司(Google Inc.)成立于1998年9月4日,由拉里·佩奇和谢尔盖·布林共同创建,被公认为全球最大的搜索引擎。
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
138+阅读 · 2020年3月1日
BERT进展2019四篇必读论文
专知会员服务
66+阅读 · 2020年1月2日
谷歌机器学习速成课程中文版pdf
专知会员服务
143+阅读 · 2019年12月4日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
11+阅读 · 2019年6月19日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
4+阅读 · 2017年11月14日
VIP会员
相关论文
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
11+阅读 · 2019年6月19日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
4+阅读 · 2017年11月14日
Top
微信扫码咨询专知VIP会员