当前位置: 首页 > news >正文

RippleNet: Propagating User Preferences on the Knowledge Graph for Recommender Systems

1.知识图谱嵌入的基本过程,为什么难以直观有效表达项目间的关系

1.1基本过程(知识图谱嵌入)

  • 构建三元组: 将知识图谱表示为(头实体h, 关系r, 尾实体t)集合。

  • 向量化建模: 为每个实体、关系分配可学习的向量/矩阵,常见范式如TransE(h+r≈t)、DistMult、ComplEx、RotatE等。

  • 打分函数: 通过模型特定的打分f(h,r,t)衡量三元组合理性(越高越可信)。

  • 负采样训练: 用真实三元组配合构造的假三元组优化排名/交叉熵损失,联合正则化(范数约束、关系正交等)。

  • 推断与下游: 训练好后用打分函数进行链路预测;在推荐中可将实体/关系嵌入与用户行为聚合(或图神经网络)结合,得到可用于召回/排序的表示。

1.2为何难以直观有效表达“项目间关系”

  • 多关系压缩: 一个物品与其他实体通过多种关系相连(类别、品牌、属性、制作人…),嵌入把多语义压缩到固定维度,很难保留清晰、可分解的“哪一种关系导致相似”的解释。

  • 路径可组合性弱: 多跳路径蕴含的组合语义(如“同导演→同题材→同受众”)在简单向量运算中难以保真,导致复杂关联被“糊成”相近但不可解释的距离。

  • 语境依赖丢失: 项目相关性常常依用户/场景而变(同一两物品对不同用户意义不同)。静态嵌入用统一相似度度量(点积/余弦)难以表达这种条件化关系。

  • 目标不一致: KG嵌入多以链路预测为目标,优化“真假三元组可分性”,而推荐需要用户偏好排序与业务可解释性,二者并不等价。

  • 长尾与稀疏: 关系少或冷门物品学到的向量不稳定,近邻关系受噪声主导,难以形成可靠的“项目-项目”语义。

  • 可解释性受限: 高维向量接近并不直接对应可读的关系句子或具体路径,难以给出“为什么这两个项目相关”的直观依据。

2.知识图谱的元路径是什么意思,具体如何通过路径实现推荐

2.1元路径(Meta-path)

在异构信息网络/知识图谱中,用“节点类型→关系类型”的序列定义的一种语义路径模板,描述两类实体之间的关系模式,而非具体数据上的一条边。例如:用户-评分->电影-由->导演-执导->电影(记作 U-R-M-D-M),表示“用户通过共同导演关联到另一部电影”的语义。

2.2如何用路径做推荐

  • 选路径: 依据业务先验或自动搜索,挑选能表达偏好的元路径(如 U-M-U 共同喜好、U-M-A-M 同演员、U-M-T-M 同标签)。

  • 算关联分数: 对每个用户-物品对,在每条元路径下计算“可达性/相似性”作为特征 f_k(u,i)。常见做法:

    • 路径计数: 统计从 u 到 i 的元路径实例条数(可加衰减或去重)。

    • 路径约束随机游走(PCRW): 只沿元路径类型行走,取从 u 抵达 i 的概率。

    • PathSim/HeteSim: 对称路径用 PathSim 比同类节点相似度,异类对(如用户-物品)用 HeteSim 的归一化可达性。

  • 矩阵乘法实现: 为每种关系建邻接矩阵 AR;某元路径 R1→R2→…→RL 的连通强度可由 M = AR1 · AR2 · … · ARL 得到,M[u,i] 即 fk(u,i) 的原始值(再做归一化/平滑)。

  • 融合与排序:

    • 无监督: 设权重 wk,得分 s(u,i) = Σ kwkfk(u,i),wk 可靠验证集调参或启发式设定。

    • 监督学习: 把各 fk 作为特征,喂给 LR/FM/GBDT/神经网络,直接学习点击/评分/转化;或做 pairwise 排序优化 NDCG/HR。

  • 生成Top-N: 对每个用户按 s(u,i) 排序,输出前N个物品,并可附上触发的元路径实例做可解释性说明。

2.3那么为什要选择高质量的元路径,对结果有什么影响吗

  • 好路径:User–Item–Actor–Item(同演员常反映真实偏好传递)

  • 弱路径:User–Item–Publisher–Item(若“出版社”与用户兴趣弱相关,噪声更大)

3.“端到端训练”是什么

端到端训练指用一个统一的可微模型,将从输入到输出的所有步骤放在同一目标函数下,借助反向传播同时学习全部参数。

4.Bag-of-Words(词袋模型)

把文本看作“词的多重集”,忽略语序与语法,仅统计每个词在文本中出现的次数,用一个固定长度向量表示文本。

5.请问第5个公式和第6个公式表示的一阶响应、二阶响应……什么意思

一阶/二阶“响应”:指用户对候选物品在知识图谱上第k跳邻域产生的偏好信号。第1跳为一阶响应,第2跳为二阶响应,依此类推。

6.似然函数的目的

G理解为知识图谱(实体–关系–实体的三元组集合);其“似然函数”是在目标里鼓励模型对真实三元组赋高概率、对采样的负例赋低概率的项。

http://www.hskmm.com/?act=detail&tid=24420

相关文章:

  • 特地拎出来的总结
  • 2025异型件厂家推荐:邯郸市烁燊紧固件,广泛应用于建筑、桥梁、机械、电力、交通等诸多领域
  • Allow or block media autoplay in Firefox
  • [WC2018] 即时战略
  • 实用指南:Unity学习之C#的反射机制
  • HDF5文件 ——之三
  • 代码随想录算法训练营|Day 25
  • 深入解析:SAE J3072-2024插电式电动汽车(PEV)中的车载逆变器系统安全标准介绍
  • 冷僻模板整理
  • 实用指南:gitlab-runner 再次实践中理解和学习
  • 2025年7月28日当周关键漏洞汇总分析
  • C# 与 C/C++ 互操作
  • 【自然语言处理】文本规范化知识点梳理与习题总结 - 教程
  • 邮票收集问题正推证明
  • 2025多校冲刺CSP模拟赛2 2025.10.4 模拟炸
  • 算法乱谈
  • 2025 年 9 月习题集
  • C# 代码规范
  • 实用指南:babelfish for postgresql 分析--todo
  • NFC 贴卡自动拨打微信视频电话
  • 10.4
  • 实用指南:d-分离:图模型中的条件独立性判定准则
  • [MCP] 监听资源更新
  • [RAG] 基础知识
  • CF1408F Two Different
  • 数据结构 - 字典树 Trie
  • 激活函数实现
  • 漏洞赏金入门指南:从零开始的实战方法论
  • PMON failed to acquire latch 的报错及sqlplus / as sysdba 无法连接 - 详解
  • 2025CSP-S模拟赛58 比赛总结