Fork me on GitHub

快手端智能—移动端部署推荐系统:快手获数据挖掘顶会 CIKM 2022 最佳论文

10 月 20 日,信息检索和数据挖掘领域的顶级会议之一 CIKM 2022 公布论文奖项,快手社区科学团队获得了应用研究方向「最佳论文奖」。

图片

获奖论文《Real-time Short Video Recommendation on Mobile Devices》针对短视频推荐场景,传统服务端部署的推荐系统在决策时机和实时特征利用方面的不足问题,通过在移动客户端部署推荐系统来实时响应用户反馈,提高推荐结果的精准度,从而提升用户体验。论文提出的方案 100% 流量部署到了快手短视频推荐生产环境,影响了日均超过 3.4 亿用户的体验,是端上智能在大规模推荐场景落地的创新实践。
图片

论文链接:https://dl.acm.org/doi/10.1145/3511808.3557065
以下为作者团队对论文工作的详细解读:

背景

近年来,越来越多的用户通过短视频应用来学习和娱乐,并且可以通过丰富的反馈来表达对视频内容的兴趣,比如点赞、收藏、分享等(如图1所示)。

图片

图1. 快手应用界面:沉浸式观看,丰富的显式/隐式反馈

为了给用户推荐其感兴趣的内容,推荐系统必需通过用户的显式或者隐式反馈来感知用户的实时兴趣。由于短视频时长较短,内容主题也多种多样,因此用户在短时间内就会观看很多不同主题的内容,实时兴趣也会发生快速变化,这给推荐系统提出了很大的挑战。传统的推荐系统完全部署在服务端,由于整体复杂性高,链路耗时比较长(1秒左右),同时为了给客户端留出足够的时间来预加载和渲染视频,防止播放时造成卡顿,因此通常采取分页请求的方式,每次返回多个视频给客户端,依次展示给用户,用户看完之后客户端再发起下一次请求。这种架构会带来两个问题:

  1. 决策机会角度:服务端只有在接收到客户端的请求时才有机会调整后续推荐内容,而无法对用户的实时反馈马上做出响应。即使用户对某类内容表现出了明显的偏好或厌恶,客户端也没办法对候选中的类似内容做提前或者打压操作。
  2. 特征时效性角度:用户的反馈必需回传到服务端才能被利用,整个链路延迟通常长达几十秒甚至几分钟,对特征的时效性有很大的影响。同时,有一些客户端独有的特征,比如当前时刻下,设备的网速、每个候选视频的预加载时长等,在服务端是无法获取的,但这些因素也会对用户体验造成影响。

随着移动设备算力和存储资源的快速提升,以及移动端深度学习框架的发展,现在已经可以在移动设备上进行深度学习模型推理甚至训练,因此我们通过在移动设备上部署一个轻量级的重排模型来解决上述问题。

系统框架

图片

图2. 端上重排系统

如图2所示,整个系统分成3个部分:

  1. 服务端的推荐系统。这部分就是传统的推荐系统,通常包括召回、排序、重排等环节,最终输出几十个左右的候选视频。一些服务端能获取到的特征也会被抽取出来,随着候选视频一起发送到客户端。
  2. 模型训练系统。这个模块负责训练拼接训练样本,并训练端上重排模型。训练过程中会定期导出 checkpoint,并转换成 TFLite 格式下发到客户端。
  3. 客户端推荐系统。这是整个系统的核心模块,负责客户端的特征收集,以及根据用户行为触发候选视频重排。

端上重排模型

整体设计思路

在现有的公开资料中,端上重排模型一般被设计成端云结合的结构,比如 EdgeRec。即模型在部署时会拆分成两部分,参数量最多的 embedding 部分部署在服务端,上层 DNN 部分部署在客户端。我们设计了一个超轻量级的小模型,可以整体部署在客户端。之所以采取这种设计,有如下三个原因:

  1. 服务端的精排模型是一个非常复杂的超大规模千亿参数模型,在精排模型的预估值中已经蕴含了输入特征中的精华信息,客户端的重排模型可以直接将其作为输入,减少重复计算,也省去了搭建一套类似pipeline的训练和预测资源开销。同时,拆分部署的架构会增加维护的复杂性,比如客户端的模型更新受到很多限制,可能同时存在非常多的模型版本,需要保证服务端参数和客户端参数的一致性,这些也会带来更多的资源开销。
  2. 客户端能获取的实时特征都是比较小规模,并且有明确含义的,比如用户的反馈、网速信号等,这些特征也不需要太复杂的网络结构来学习。
  3. 精排模型用到了用户的长期行为序列,能学到用户的长期兴趣,和客户端侧重于用户实时兴趣感知的模型正好互补。

我们离线做过对比实验,相对于我们设计的超轻量级模型,增加更多特征和更复杂结构的模型并没有带来明显的离线指标提升。

输入特征

模型输入特征分成3类:

  1. 精排模型预估分。前面提到过,精排模型用到的特征和模型结构都很复杂,因此其预估分有很丰富的信息量,这也决定了精排的预估分是非常重要的输入特征。同时精排模型用到了视频 id、用户 id等记忆性特征,以及非常长的用户历史行为序列,因此很擅长捕捉用户的长期兴趣,和客户端侧重用户实时反馈的重排模型正好互补。
  2. 视频静态属性。为了减少参数量,我们主要选择视频的类别、时长等维度比较低的属性,整体 id 特征的取值数量不超过 10000。
  3. 客户端特征。用户在观看视频的过程中,客户端会收集用户反馈、观看时长等信息,并组织成按观看时间排序的序列格式,同时也会收集当前的网速、视频预加载时长等客户端独有的特征,作为端上重排模型输入。

特征工程

为了增强实时特征的效果,还增加了以下交叉特征:

  1. 候选视频精排pXTR和观看历史视频pXTR的差。不同用户天然存在的 bias 会导致用户间的 pXTR 并不直接可比,比如有些用户 pXTR 会整体偏高或偏低,由于端上重排模型中没有用到 uid 等特征,直接用pXTR作为特征会干扰模型学习。通过 pXTR 之差可以消除这种 bias,并且以最近看过的视频 pXTR 为锚点,可以感知用户的实时兴趣偏好。
  2. 上次视频曝光时间之差。通常来说离当前时间越近的视频影响越大。
  3. 视频曝光位置之差。用户观看视频的速度通常变化较大,此时曝光位置之差比曝光时间之差会更稳定。两者结合起来可以建模视频在时间和空间上的互相影响。

以上特征会进一步和已观看视频的类别以及对应的用户反馈进一步交叉,来捕捉用户的细粒度偏好。

模型结构

图片

图3. 端上重排模型

如图3 所示,除了直接引入候选视频特征和其他特征(如客户端特征)之外,模型主要通过 target attention 来建模已观看的视频序列和候选视频之间的关系,以及已排序候选序列和候选视频之间的关系。上层通过 MMoE 来建模3个目标,分别是has_next(下滑)、effective_view(有效播放)和 like(点赞)。

实时的 context-aware 重排

相对于贪心的单点排序,我们更希望能考虑候选视频之间的互相影响,得到整体效果最好的序列。这里序列整体的效果以 ListReward 来评估,其定义如下:

图片

其中

图片

表示用户会看到第图片个视频的概率,用来作为折扣因子,引入后续内容的 reward。图片,图片是不同目标的权重,图片是候选集合的某个排列。

生成式重排的优点在于,每一步都能利用到前序已排序候选的所有信息,基于更完整的context,来更新待排序候选的各项预估值,使得预估结果更准确,缺点在于计算量比较大,因此采用基于 beam search 的生成式重排来逐步生成推荐结果。在短视频场景中,用户每次只会看到图片个视频,因此每次排序只需要确定图片的顺序即可(沉浸式上下滑场景图片)。在离线实验中,我们还观察到,beam search 每一步得到的图片 个序列,它们的 ListReward 的差别随着搜索步数增加会单调递减。利用这个特性,我们定义了 beam search 的稳定性,并提出自适应搜索步数的 beam search(图4),可以将 beam search 的时间复杂度从图片进一步降低到图片,其中图片是beam size,图片是候选视频数量,图片是实际的搜索步数,图片。最终的 context-aware 生成式重排算法如图 5 所示。

图片

图4. beam search 稳定性及 adaptive beam search 示例

图片

图5. 生成式重排算法

实验

离线对比

我们在业务数据集上对比了精排分、简单的DNN模型、EdgeRec,结果如下

图片

表1. 离线模型效果对比

将 SimpleDNN 和论文提出的模型做对比,可以看到直接加入精排分作为特征效果并不好,甚至比精排分本身的 AUC 更低,说明这种缺少记忆性特征的小模型在不做相应特征处理的情况下,很难利用好精排分这类强个性化的特征。

同时也通过消融实验验证了不同部分的作用:

图片

表2. 消融实验

CSF:客户端特有的特征,如网速、视频预加载时长。可以看到这类特征对用户是否会继续观看视频有很大影响。

FE:特征工程。特征工程对效果的影响非常明显。

RTS:用户实时反馈序列。点赞比有效播放和下滑操作更稀疏,用户实时反馈的影响也更小一些。

在线 A/B 实验

在线实验在快手 App 的线上环境进行,用到的模型大小在 6MB 以内,完全部署在客户端。

图片

表3. 在线 A/B 实验效果

基于单点贪心排序的端上重排相对于没有端上重排的基线,各个指标都有明显提升。context-aware的生成式重排在此基础上又带来了进一步的提升。

图片

表4. 端上重排模型的资源开销

实验期间也监控了基于 adaptive beam search 生成式端上重排带来的资源开销,表4是实验组中所有设备的资源开销均值,相对于没有端上重排模型的实验组,CPU和内存的开销有轻微涨幅。

图片

图6. 线上效果随曝光位置的周期性变化

在实验过程中,我们观察到了线上效果随曝光位置呈现周期性变化,我们分析主要有两个原因导致了这个现象:

  1. 候选集合大小会周期性变化。当服务端的候选集合刚下发到客户端时,候选空间最大,随着视频逐渐曝光,候选数量慢慢变小,潜在的收益空间也逐渐收缩,直到接收到下一次候选集合。
  2. 服务端排序效果的周期性变化。服务端每次接收到客户端的请求时,可以利用最近的用户行为,推荐更好的内容,此时排序效果是最好的,随着用户在客户端持续观看视频,变化的上下文使得服务端的排序逐渐变得不够准确,这也存在周期性的变化。

Case Study

图片

图7. 反映用户实时反馈重要性的例子

图 7 中展示了一个真实例子。用户在当前页中对两个亲子视频有明显的正反馈(点赞+收藏),但服务端无法实时获取到这些信号,此时候选中的另一个亲子视频,服务端预测的点赞率只有 0.049。而端上模型在引入用户实时反馈特征之后,关注到了用户在同类别视频上的反馈(attention 权重最高),对候选视频的点赞率预估值大幅提升到 0.592,并将其排在靠前的位置(受打散规则限制,没有紧接着之前的亲子视频曝光),最终用户也点赞并收藏了这个视频。这个例子证明用户实时反馈对感知其当前的兴趣至关重要。

总结

端上重排系统可以大大提升整个推荐系统的实时性,带给用户更好的使用体验。论文在短视频场景通过一个超轻量级的端上重排模型实现了用户反馈的实时感知,提升了离线和在线的效果。后续会继续探索实时特征利用,端云联合优化等相关方向。


本文地址:https://www.6aiq.com/article/1666358567268
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出