文章预览
前几个月 Meta HSTU 点燃各大厂商对 LLM4Rec 的热情,一时间,探索推荐领域的 Scaling Law、实现推荐的 ChatGPT 时刻、取代传统推荐模型等一系列话题让人兴奋,然而理想有多丰满,现实就有多骨感,尚未有业界公开真正复刻 HSTU 的辉煌。这里面有很多原因,可能是有太多坑要踩,也有可能是 Meta HSTU 的基线较弱,导致国内已经卷成麻花的推荐领域难以应用 HSTU 产生突破性效果。 然而做起来困难并不代表不去做,总要有 真的勇士 率先攻克难关迈出一步。字节前几天(2024.9.19 发布 arxiv)公开的工作 ⌜ HLLM ⌟(分层大语言模型)便是沿着这一方向的进一步探索,论文内也提及了 follow HSTU: 论文题目: HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling 论文链接: https://arxiv.org/abs/2409.12740 代码链接: https://github.com/bytedance/HLLM
………………………………