1 . 看下loss有没有下降 确实有下降,说明模型有进步bpr,但是ndcg的测试结果却没有明显的进步。怀疑是ndcg写错了?或者说测试的方式有问题呢? 2. ndcg应该是没错误得,感觉是模型的表达能力得问题? 只用bprloss得话,lightgcn看起来还是能够稳定增加。为什么? 插曲: 之所以测试data_test有效,大概是增强tgt得时候有进...
简直就是: 我在我们的系统上做了一些离线实验,结果是BPR略微胜利,我认为原因可能在BPR更加嫩滑…啊不对…光滑上。但是就计算量而言,肯定是Hinger Loss要远远小于BPR Loss。
1) param loss + L2 regularization loss 76.60 2) 77.21, weight 0.0001 77.43. 3) param loss + regularization+two different tf.layer.dense parameters (这个好像会overfit) 4) bpr loss + base loss 最高可以达到79.07,但是马上就下降了。 5) bpr loss + base loss + l2 regularzation loss + param ...
外部播放此歌曲> Pronto NDO - Take A Loss (Explicit) 专辑:Pronto The Don (Deluxe) [Explicit] 歌手:Pronto NDO 还没有歌词哦
Kloml 所以是love of my life还是loss of my life? loml û收藏 转发 评论 ñ2 评论 o p 同时转发到我的微博 按热度 按时间 正在加载,请稍候... Ü 简介: - 更多a 微关系 他的关注(136) 辣逼小鲨 Shell07Y 威肯 三月豚鼠博士 他的粉丝(203) Aooooo...
做Top-N推荐,自定义BPR损失函数,lossbackward没有反应,没有任何报错,如何解决?写了一个TOP-N推荐...
RT,事情起因于我将LightGCN中的内积相似性计算替换为通过MLP来进行计算,其他的部分保持不变的情况下,整个模型的效率降低了大概50%~60%(…显示全部 关注者2 被浏览64 关注问题写回答 邀请回答 好问题 添加评论 分享 暂时还没有回答,开始写第一个回答...