谷歌宣布,他们的搜索引擎用上了强大的 BERT 预训练模型,可以让搜索引擎结合语境理解用户的搜索意图,甚至能理解一些不起眼的介词在搜索语句中的重要含义。有了 BERT 的加持,用户能在谷歌中搜到相关性更强的结果。
谷歌每天的搜索量多达数十亿,其中有 15% 是从未见过的,搜索引擎的使命是弄清楚用户的搜索意图并从网上找到有用信息,无论查询语句中的单词如何拼写或组合。复杂或会话性的查询通常很难处理。人们会输入他们以为搜索引擎可以理解的问题,但其实他们用的方式并非他们在现实中自然而然使用的方式。为了解决这些问题,谷歌的研究人员决定在搜索引擎中引入更加强大的自然语言处理模型——BERT。
BERT 模型就可以借助某个单词前后的词来考虑其所处的完整语境,这对于理解查询语句背后的意图非常有用。同时谷歌选择使用最新的 Cloud TPU 结果来提供搜索结果,以达到更好的效果。
BERT 在谷歌搜索中的应用体现在排名和精选摘要(featured snippet)两个方面。将 BERT 应用于搜索排名之后,谷歌宣称它可以帮助搜索引擎更好地理解美国(英文)10% 的搜索。谷歌表示,随着时间的推移,他们还会将结果扩展至更多语言和地区。 谷歌搜索引擎将能够理解查询语句中词的上下文。用户可以用更加自然的方式进行搜索。
无论你想要搜索什么东西,无论你使用哪种语言,谷歌希望人们都可以使用最自然的方式进行搜索。但即使是 BERT 加持,谷歌搜索或许仍然无法让人能够获得 100% 完美的结果。未来,谷歌仍会持续改进自己的搜索系统。
搜索关于谷歌搜索依靠BERT使搜索结果精确度得到提高的信息,谷歌一下
信息拓展: