BEiT: BERT Pre-Training of Image Transformers
Visual Tokens & Masked Image Modeling
Visual Tokens & Masked Image Modeling
自回归图像生成: Multi-scale Quantization & Next-scale Prediction
兼顾 Low-level 的 Pixel 信息和 High-level 的 Semantic 信息
非常自然的 Image-Codeword+Text-LLM-NextCodeWord-Generation 流程
TiTok 框架 + Softmax 版 Vector Quantization 以期更高的压缩比
COBRA, 链接离散编码和稠密表示的尝试
LC-Rec, LLM + RQ-VAE + 丰富的多任务训练
OneRec, 端到端的推荐模型
SimVQ, 坐标变换替代可学习 Codebook