谷歌bert模型(Google 搜索算法为何会越来越懂我们?)

案例 2020-02-01 09:39:11

Google 搜索算法为何会越来越懂我们?

因为现在科技以及信息发展的快的我们根本就无法去想象,它会自动记录你以前说过的话,用过的词,继而了解到机主到底喜欢什么,讨厌什么。


此修复程序基于Google研究人员开发的最新自然语言处理技术(NLP),并于10个月前应用于搜索产品。 Google声称,更好地理解句子中单词的相互关系可以改善结果。在新闻发布会的早些时候,谷歌在新闻发布会上讨论了一个示例,其中他们的搜索算法可以解析短语——“药房可以节省药物吗?”的含义。

根据Google的研究人员兼搜索副总裁Pandu Nayak所说,旧的Google搜索算法将此句子视为“单词袋”。因此,查看“医药”和“药学”这两个重要词,然后简单地返回本地结果。我知道新算法是一个问题,需要理解“为某人”一词的上下文,并要求其他人开处方并返回正确的结果。

调整后的算法应理解为基于BERT(变压器的双向编码器表示),它是“变压器的双向编码器表示”。重要的是,BERT将整个句子中的每个单词视为一个整体,而不是将其视为“单词反过来”。因此,您可以看到“某人”对于句子的含义很重要。不能省略。

值得一提的是,BERT通过自学知道这些单词。 Google设置了BERT来收集英语句子集合,以随机删除15%的单词,然后显示删除的单词是什么。在这方面,高级研究员兼研究副总裁杰夫·迪恩(Jeff Dean)说,培训使NLP模型在了解一段时间内的情况方面更加有效。