在实际中,旁路召回虽然线下也会计算自己的AUC,NDCG等指标。但是往往都是只做一个参考,还是要靠线上实验来验证这路召回是不是有用。 在线上,除了AB需要看效果以外,有一个指标是召回需要注意的:透出率,指的是最终展示的结果中,有多少比例是由这一路召回提供的。如果我们新建了一路召回,他的透出率能达到30%,AB...
毕竟后验是精排控制的,粗排只能优化级联的下一端。 粗排的学习目标应该是精排的输出。说白了,粗排只是一个精排的影子,就像上一讲提到的,要不是精排吃不下,也不会需要粗排。因此粗排就是跟精排保持步调一致。如果粗排排序高的,精排排序也高,那么粗排就很好的完成了“帮助精排缓冲”的目的。反之,如果你排序低...
它的学习目标,可以类比粗排和精排的关系去学习召回和粗排的关系。而基于graph或者图像相似度的召回,则有各自自己的学习目标。 召回的评估方式 主路召回,我们可以采用粗排的方式,以粗排的序计算NDCG,或者TopN重叠率。但是旁路召回在线下是比较难以评估的。如果采用一样的方式评估旁路,那旁路的作用岂不是和主路差不多?