常见问题解答:有关Google搜索中的BERT算法的所有信息

谷歌表示,其最新的重大搜索更新(包括BERT算法)将有助于其更好地理解用户搜索查询背后的意图,这应该意味着更相关的结果。该公司表示,BERT将影响10%的搜索量,这意味着它可能会对您品牌的自然可见度和点击量产生一些影响-您可能不会注意到。

这是我们对Google吹捧为“搜索历史上最大的飞跃之一”到目前为止所了解的知识的概述。当您准备进一步研究时,请查看我们的配套文章:深入BERT:Dawn Anderson撰写的BERT如何推动自然语言理解的火箭。

BERT何时在Google搜索中推出?

BERT于2019年10月21日当周开始在Google的搜索系统中推出英语查询,包括精选摘要。

Google的Danny Sullivan说,该算法将扩展到Google提供搜索功能的所有语言,但目前尚无时间表。 BERT模型也被用于改善两个国家的特色片段。

什么是BERT?

BERT代表来自变压器的双向编码器表示,它是一种基于神经网络的自然语言处理预训练技术。用简单的英语来说,它可以帮助Google更好地识别搜索查询中单词的上下文。

例如,在短语“九至五”和“四分之一至五”中,“至”一词具有两种不同的含义,对人类来说可能是显而易见的,但对搜索引擎而言则不那么明显。 BERT旨在区分这些细微差别以促进更相关的结果。

Google于2018年11月开源BERT。这意味着任何人都可以使用BERT来训练自己的语言处理系统来回答问题或执行其他任务。

什么是神经网络?

简单地说,神经网络算法是为模式识别而设计的。对图像内容进行分类,识别笔迹甚至预测金融市场的趋势,都是神经网络在现实世界中的常见应用-更不用说点击模型等搜索应用了。

他们训练数据集以识别模式。 Google使用Wikipedia的纯文本语料库对BERT进行了预培训,并在将其开源时进行了解释。

什么是自然语言处理?

自然语言处理(NLP)是指处理语言学的人工智能的一个分支,其目的是使计算机能够理解人类自然交易所的方式。

NLP带来的进步示例包括社交监听工具,聊天机器人和智能手机上的单词建议。

就其本身而言,NLP并不是搜索引擎的新功能。但是,BERT通过双向培训代表了NLP的进步(更多内容请参见下文)。

BERT如何工作?

BERT的突破之处在于它能够基于句子或查询中的整个单词集来训练语言模型(双向训练),而不是传统的以有序单词序列(左至右或左组合词)进行训练的方法-到右和从右到左)。 BERT允许语言模型根据周围的单词学习单词上下文,而不仅仅是基于紧随其后的单词。

Google将BERT称为“深度双向”,因为单词的上下文表示“始于深度神经网络的最底层”。

“例如,“银行”一词在“银行帐户”和“河岸”中将具有相同的上下文无关表示。上下文模型反而会基于句子中的其他单词生成每个单词的表示。例如,在句子“我访问了银行帐户”中,单向上下文模型将基于“我访问了银行”而不是“帐户”来表示“银行”。但是,BERT使用其上一个和下一个上下文来表示“银行” —“我访问了…帐户。””

Google展示了BERT在搜索中的应用如何影响结果的几个示例。在一个示例中,“成人数学练习书”查询以前在自然搜索结果的顶部浮出了6至8年级书的清单。应用BERT后,Google会在结果顶部显示一本名为“成年数学”的书的清单。

BERT_book_example图片来源:Google。

您可以在该查询的当前结果中看到,六年级至八年级的书仍在排名中,但是有两本专门针对成年人的书,现在已经超过了该书,包括精选的摘要。

google_serp_example

类似于上面的搜索结果更改反映了对使用BERT的查询的新理解。青年成人的内容不会受到惩罚,而是针对成人的列表被认为与搜索者的意图更加吻合。

Google是否使用BERT来进行所有搜索?

不,不完全是。 BERT将提高Google对美国英语搜索中十分之一的了解。

谷歌在博客中写道:“特别是对于更长,更多的对话查询,或诸如“ for”和“ to”之类的介词在含义上具有重要意义的搜索,搜索将能够理解您查询中单词的上下文。 。

但是,并非所有查询都是对话式的或包含介词的。品牌搜索和简短短语只是两种查询类型的两个示例,可能不需要BERT的自然语言处理。

BERT将如何影响我的精选片段?

正如我们在上面的示例中看到的那样,应用BERT可能会影响显示在精选摘要中的结果。

在下面的另一个示例中,Google比较了查询的特色片段“没有路边的山坡上停车”,并解释说:“过去,这样的查询会使我们的系统感到困惑-我们过分重视“路边”一词并忽略了“否”一词,不理解该词对于正确响应此查询有多重要。因此,我们会返回在路边的山坡上停车的结果。”

图片来源:Google。

BERT和RankBrain有什么区别?

某些BERT的功能听起来可能类似于Google的第一种用于理解查询的人工智能方法RankBrain。但是,它们是可以用于通知搜索结果的两种独立算法。

“关于RankBrain,首先要了解的是它与常规的自然搜索排名算法并行运行,并且用于对由这些算法计算出的结果进行调整,” Perficient Digital总经理Eric Enge说。

RankBrain通过查看当前查询并查找类似的过去查询来调整结果。然后,它检查那些历史查询的搜索结果的性能。 “根据所见,RankBrain可能会调整常规自然搜索排名算法结果的输出,” Enge说。

RankBrain还可以帮助Google解释搜索查询,以便它可以显示查询中可能不包含确切单词的结果。在下面的示例中,尽管该塔的名称未出现在“巴黎地标高度”查询中,但Google能够确定用户正在搜索有关埃菲尔铁塔的信息。

google_serp_eiffel_tower

“ BERT的工作方式完全不同,” Enge说。 “传统算法的确会尝试查看页面上的内容,以了解其内容以及与之相关的内容。但是,传统的NLP算法通常只能查看单词之前的内容或单词之后的内容以获取其他上下文,以帮助其更好地理解该单词的含义。如上所述,BERT考察了单词前后的内容,以告知其对单词含义和关联性的理解。 “这是自然语言处理中的一项重要改进,因为人类交易所自然而然地是分层的并且是复杂的。”

Google使用BERT和RankBrain来处理查询和网页内容,以更好地理解单词的含义。

BERT并不是要取代RankBrain。 Google可以使用多种方法来理解查询,这意味着BERT可以与RankGoogle一起与其他Google算法一起单独应用(取决于搜索词)或完全不组合。

BERT可能还会影响其他哪些Google产品?

Google关于BERT的公告仅与搜索有关,但是也会对Assistant产生一些影响。当在Google Assistant上执行的查询触发它以提供搜索功能的摘要或网页结果时,这些结果可能会受到BERT的影响。

Google告诉Search Engine Land,目前BERT尚未用于广告,但是,如果将来将其集成,它可以帮助缓解困扰广告客户的一些不良匹配形式。

“我如何针对BERT进行优化?”这不是真正考虑的方法

“对于BERT而言,没有什么可以优化的,对于任何人来说,也没有什么可以重新思考的,” Sullivan说。 “我们寻求奖励丰富内容的基本原则保持不变。”

Google一直建议,要保持良好的排名,就必须牢记用户并创建满足其搜索意图的内容。由于BERT旨在解释这一意图,因此向用户提供他们想要的东西仍然是Google的首选建议。

现在,“优化”意味着您可以将更多的精力放在写得好,清晰的文章上,而不必在为观众创建内容和机器的线性短语构造之间妥协。

想更多地了解BERT?

这是我们在BERT上的其他报道和其他资源。

  • 深入探究BERT:BERT如何推动火箭对自然语言的理解
  • 为什么您可能没有注意到Google BERT更新
  • 欢迎BERT:Google最新的搜索算法可更好地理解自然语言
  • 前所未有地更好地了解搜索-Google关键字博客
  • 开放源代码BERT:自然语言处理的最新技术培训-Google AI博客
  • BERT从HotpotQA开始对问题进行解答— Github
  • 介绍BERT的研究论文:用于语言理解的深度双向变压器的预训练—康奈尔大学
资讯来源:由0x资讯编译自SEARCHENGINELAND,版权归作者George Nguyen所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢