EARN: Efficient Inference Acceleration for LLM-based Generative Recommendation by Register Tokens
通过减小 KV cache size 加速 LLMRec 的推理
通过减小 KV cache size 加速 LLMRec 的推理
COBRA, 链接离散编码和稠密表示的尝试
LC-Rec, LLM + RQ-VAE + 丰富的多任务训练
关于利用 Sinkhorn 距离求解离散最优传输问题的记录
OneRec, 端到端的推荐模型
SimVQ, 坐标变换替代可学习 Codebook
一种利用 Rotation Trick 来替代 STE 的方案
是否每个 Item 都值得一个可学习的 Embedding 呢
来自 OpenAI 的 process supervision
来自 DeepSeek 的 process supervision