丁香园 | 搜索中的 Query 扩展技术(二)
丁香园大数据NLP
一、前言
这一期我们继续来聊Query扩展的问题,在上一期我们梳理了目前Query扩展技术可以大致分为相关性建模和翻译模型建模两种思路。
(传送门:搜索中的Query扩展技术)
在介绍现有Paper工作的同时,结合我们自身场景,如果对文档能够构建概述主旨的concept短语。那么利用文档中的entity与concept就可以使用贝叶斯一众的概率模型构建一个相关性网络。随后在Query端,完成实体链接,获取其中的entity,最后利用相关性模型就可以实现Query扩展的功能。
在此基础上,本文将讨论如何进一步改进扩展效果,以及目前在该领域都有哪些工作思路可以借鉴。
二、相关模型 or 生成模型?
看到上图,细心的同学一定发现了,相关性模型的基础是Query中的term,或者如我们使用的entity。如果Query较短,比如仅包含一个单一实体时,这类方法是比较适合的。但是当Query较长,包含复杂语义时,再使用相关性模型做Query扩展可能会造成语义偏差过大的情况:
所以,我们的结论是,可以根据Query的长度来选择扩展的策略。当Query较短时,仅包含单一实体时,用户并没有表达出明确的搜索意图,除了满足字面匹配的准确性,Query扩展是为了补充近似于“推荐”的功能;而对于长Query的情况,文本中不仅出现单个实体词,也会存在多个实体,并相互作为限制词、定语,或者描述实体词的属性等。总的来说,Query越长,用户的意图越聚焦,希望获取的内容越具体,这种情况下,Query扩展是为了实现在准确捕捉语义后,扩展出相同语义的不同表述。
三、捕捉复杂语义
所以,当Query存在复杂语义时,具体需要解决哪些问题呢?我们总结了以下三个方面:
a. Query中包含多于一个的实体词,或包含除实体词以外的文本。这种情况通常表达的是对某个实体附加了限定条件(如:HP的治疗方案),或者在表达与多个实体相关的事件(如:上海 疫情)。这类Query包含了某个完整的语义,在处理时不能割裂成多个词,而是想办法encode整个Query,比如各种embedding的方法;
b. 用户对某个事物的表述是多种多样的,并不是所有Query的表述都是精确的,某些情况下由于分词的原因或者BM25计算的原因,不标准的表述可能无法搜索到期望的内容。此时Query扩展能够补充的,是在忠实执行原文本的检索后,也提供一个标准表述下检索结果。(比如:胃溃疡的治疗文件 –> 胃溃疡的诊疗指南);
c. 某些时候,用户对想要搜索的内容有个大致的概念,但是可能一时想不起具体的名字,搜索Query会以围绕目标展开,由多个相关的Query组成一个session(比如:冰与火之歌 -> 马王 -> 海王主演 -> 杰森莫玛)。这类问题目前也有不少工作研究了如何通过Query Session来捕捉到复杂语义;
四、Query扩展思路
在任务形态上,常见有两种类型,一种是首先获得一批Candidates,模型负责对Query与Candidate的pair打分,最高分者为目标Query或扩展的Term;另一种是由模型直接生成目标Query或Term。
查阅已有工作,与我们在此讨论相关的存在Query Expansion和Query Suggestion两个子领域,前者会更偏重在检索时,使用扩展出的Query来扩充检索内容;后者更偏重Query的reform,比如在搜索引擎使用时的Query补全这类功能。而对于如何对query做encode的部分,许多技术思路是类似的,本文就不再深究两个子领域的细微差异。
1.编码完整Query
想要对整个Query做编码,很自然就会想到使用embedding的方式。具体编码的方式就很多了,比如用Word2Vec叠加、LSTM或者Transformer都可以。
《Deep Neural Networks for Query Expansion using Word Embedding》
比如在本工作中展示了一个比较基础的网络结构,Query词使用word embedding表示,序列模型编码整句话,最后使用全连接作为原始Query与Candidate的交互层。
《Click Feedback-Aware Query Recommendation Using Adversarial Examples》
那么,后续的工作在encoder上就会有不同的玩儿法,比如在序列模型上加attention,在输入加入adversarial sample (虽然文章作者使用对抗学习作为标题,但是感觉并不足以作为工作的亮点)
另外在结构上的变化是也可以对搜索Query、点击Query和 Candidate Query的向量做各种求和、内积、拼接等等。
《Using BERT and BART for Query Suggestion》
除了在encoder的结果上做调整,另一个思路是用预训练模型:
方法与目前一些主流使用预训练做QA、IR任务类似,把原始Query与Candidates使用分隔符隔开作为输入语料,用生成任务完成预训练。理论上用上了预训练之后,上下文的context可以被编码得更好。
2.对Query Session建模
除了对单个Query编码,目前很多工作也会关注如何对用户一组Query Session进行建模,Session中包含了上下文语境,也包含了Query经多次修改最终成为目标Query的转移关系。
《Learning to Attend, Copy, and Generate for Session-Basedery Suggestion》
如果构建Query Suggestion的生成模型,baseline方案一般就是准备好Query pairs,扔进NMT里。本工作是在此基础上做一些改进,首先input端将编码整个search session,其次是在模型中加入attention和copy机制。这些可以说都是借鉴了文本摘要生成的一些技巧,这项task也比较类似,所以最终结果相较seq2seq是有所提升的。
3. 挖掘更多维度的特征
除了捕捉Query Session内的语义,后续相关工作的关注点也在我们如何利用query以外的信息作为特征。
《RIN: Reformulation Inference Network for Context-Aware Query Suggestion》
比如在本篇工作中,整体架构是做了Candidate Query判别器、Query生成以及Query改写这三项任务的 Multi task,模型中增强了session中相邻Query的交互。
重点是在feature部分,作者利用Query点击的网站,构建起了图结构,使用Node2Vec获得各节点的向量,将向量融合进了Query编码中。
《Context Attentive Document Ranking and Query Suggestion》
对Query与Website的点击关系可以展开成Term到Website的关联,相应的,对文档一侧也可以对Term做展开。
这里就对Document的信息做了进一步的编码,一起融合进网络中,以此提高对上下文语义的感知度。同时,排序的相关Loss也被计算在内,协同优化Query Suggestion的效果。
五、总结
对于较长的Query如何做Query扩展,我们在本文记录了相关工作调研,总结起来需要注意的是:Query编码整体与其他NLP任务类似,注意负样本的采样,可以尝试各种attention、copy和交互方法;可以尝试将具体task目标融入到扩展任务中(比如IR的各指标);最后是我们一直秉承的观念,平时多注意数据结构化工作,在下游任务中才有额外的feature用得上。
参考文献
[1] Deep Neural Networks for Query Expansion using Word Embeddings
[2] Improving Search Query Suggestion With User Feedback
[3] Using BERT and BART for Query Suggestion
[4] Context Attentive Document Ranking and Query Suggestion
[5] A Hierarchical Recurrent Encoder-Decoder for Generative Context-Aware Query Suggestion
[6] RIN- Reformulation Inference Network for Context-Aware Query Suggestion
[7] Click Feedback-Aware Query Recommendation Using Adversarial Examples
[8] ReQue- A Configurable Workflow and Dataset Collection for Query Refinement
[9] Learning User Reformulation Behavior for Query Auto-Completion
[10] Learning to A‚ttend, Copy, and Generate for Session-Basedƒery Suggestion
[11] Click Feedback-Aware Query Recommendation Using Adversarial Examples