LLMRec对比的baseline主要general CF和多模态推荐的方法。更细致地可以划分为general CF, 有side information的推荐系统,有数据增强的推荐系统,自监督推荐系统。我们的LLMRec通过显式增强用户-物品交互边缘和提升辅助信息的质量,优于基准模型。值得一提的是,我们的模型基于LATTICE的编码器,包括ID对应编码器和特征编码器。
1.3.4 使用语义相似与行为共现做聚合(CIKM'24|小红书AlignRec,离线) 小红书提出的AlignRec使用了聚合模块来做ID Embed与多模态Embed的聚合, 其核心思想是引入了内容语义先验, 使用内容语义相似来聚合ID Embed从而得到物品侧的模态感知的Item MM Embed, 再通过行为聚合得到用户侧的模态感知的User MM Embed, 其示意图...
优于SSL方法的优势。自监督模型如MMSSL和MICRO在通过SSL信号解决稀疏性方面表现出希望,但其性能未超过我们的LLMRec。我们通过直接建立BPR三元组明确解决了训练数据的稀缺性。 原文《LLMRec: Large Language Models with Graph Augmentation for Recommendation》
具体来说,我们提出了LLM-Rec提示,它包括为个性化内容推荐量身定制的各种提示策略。这些策略包括基本提示、推荐驱动提示、参与引导提示以及推荐驱动提示和参与引导提示相结合。通过利用这些策略,我们旨在增强LLM对输入文本的生成,并提高内容推荐的准确性和相关性。 通过全面的实证实验,我们评估了LLM-Rec框架的有效性,并将...
LLMRec是一种基于大语言模型的推荐框架,旨在通过图数据增强策略提升推荐系统的性能。具体答案如下:核心目的:LLMRec的核心目的是解决推荐系统在引入辅助信息时面临的挑战,如噪声、辅助信息的可得性和完整性以及辅助信息的质量问题。主要策略:隐式反馈的增强:利用大语言模型作为知识感知采样器来增加pairwise...
数据集使用 PixelRec、Amazon Book,baseline 选用 SASRec 和 HSTU; 离线实验使用生成式推荐(为了与其他方法公平对比),在线 A/B 实验使用判别式推荐(为了与线上系统兼容); 自身模型设置 HLLM-1B、HLLM-7B 两种,HLLM-1B 采用 TinyLlama-1.1B,...
1. **隐式反馈的增强**:LLMRec直接增强潜在交互,利用大语言模型作为知识感知采样器来增加pair-wise的BPR训练数据。这种方式利用数据集中的文本信息和大语言模型的优势,从自然语言的角度构建用户偏好模型,而不仅仅是依赖于ID级别的交互。2. **物品属性的增强**:在传统的使用辅助信息的推荐系统中,...
高效:A-LLMRec 的高效之处在于对齐网络是唯一可训练的神经网络 本文的主要贡献如下: 我们提出了一种基于 LLM 的推荐系统,称为 A-LLMRec,它可以直接利用预先训练好的最先进推荐系统中包含的协作知识。 A-LLMRec 既不需要对 CF-RecSys 也不需要对 LLM 进行微调,只需要训练一个对齐网络,就能在两者之间架起...
一、LLM-Rec框架的原理LLM-Rec框架的核心思想是利用用户的历史交互数据,通过大模型生成具有个性化特征的内容,从而实现精准的推荐。具体来说,LLM-Rec首先通过预训练语言模型(如Transformer)对用户历史交互数据进行编码,然后利用这些编码信息生成具有个性化特征的内容。在生成内容的过程中,LLM-Rec还会考虑用户的兴趣偏好、...
LLM-Rec Prompting Basic prompting 基础提示,主要有以下三种 PparaPpara:提示LLM对原始内容进行改述,尽量保持原本的意思不变,并且不加入额外的内容。 PtagPtag:提示LLM用标签总结原始内容,用更简洁的表述捕获关键信息。 PinferPinfer:提示LLM对原始内容的特征进行一些推理,并提供一个比较宽泛的回答。