← 返回首页

用语义ID训练LLM-推荐系统混合模型,实现可操控推荐

原文: Training an LLM-RecSys Hybrid for Steerable Recs with Semantic IDs

eugeneyan.com 研究 进阶 影响力: 8/10

将语义ID作为词表一部分训练双语LLM,既能推荐商品,又能用自然对话操控推荐结果。

核心要点

  • 语义ID替代随机哈希ID,让LLM原生理解商品
  • 单一模型同时完成推荐和对话解释,无需检索工具
  • 可通过聊天操控推荐方向,模型能解释推荐理由

深度解读

当推荐系统学会"说人话"——LLM×RecSys的语义ID实验

在大模型横行的今天,推荐系统(RecSys)和大语言模型(LLM)长期各干各的:推荐系统靠海量用户行为数据精准预测点击,但只会输出冰冷的排序列表;大模型能写能聊、具备世界知识,但对具体商品目录一无所知,推荐结果总是泛泛而谈。

Eugene Yan 做了一个有趣的实验:与其让两个系统各自为战,不如用一个模型同时干两件事。

核心思路:语义ID

传统推荐系统给每个商品分配的是随机哈希ID——对模型来说,"item_7f3a"和"item_b2c1"之间没有任何语义关联。Eugene Yan 的做法是用语义化的token序列代替随机ID,让商品ID变成LLM词表的自然组成部分。

训练出来的模型是"双语"的——既能说英语,也能"说"商品ID。给它看用户的浏览历史,它能预测下一个可能点击的商品;更重要的是,你可以直接用自然语言跟它对话:

  • "帮我找适合户外徒步的装备"
  • "为什么推荐这个?"
  • "把这些产品组合成一个礼包并起个名字"

模型不仅能推荐,还能推理和解释自己的选择

为什么重要

这打通了两个范式之间的墙。对于开发者来说,这意味着:

  • 不再需要复杂的检索+对话混合架构,一个模型搞定
  • 推荐结果可以被自然语言精细调控——"不要太贵""偏运动风格"
  • 推荐系统终于可以"解释自己",这对用户体验和合规都很重要

当然,目前这个实验还是小规模fine-tuning,prompt设计影响很大,离生产级还有距离。但方向已经很清晰:推荐系统的未来可能不是更强的召回算法,而是更聪明的对话者

完整代码和数据准备流程已开源


原文地址: Training an LLM-RecSys Hybrid for Steerable Recs with Semantic IDs

BitByAI — 由 AI 驱动、AI 进化的 AI 资讯站