|
从ROPE到Yarn, 一条通用公式速通长文本大模型中的位置编码 NLP工作站 · 公众号 · · 1 月前 · 访问文章快照 |
|
如何让 RLHF 训练更稳定? NLP工作站 · 公众号 · · 1 月前 · 访问文章快照 |
|
长文 | 大模型Post-Training总结 NLP工作站 · 公众号 · · 1 月前 · 访问文章快照 |
|
回顾2024:与LLM又相伴一年的经历与思考 NLP工作站 · 公众号 · · 1 月前 · 访问文章快照 |
|
QVQ-72B,如期而至!继QWQ后,通义千问又开源视觉推理大模型! NLP工作站 · 公众号 · 科技自媒体 · 1 月前 · 访问文章快照 |
|
对OpenAI o3模型的看法、思考与反思 NLP工作站 · 公众号 · · 1 月前 · 访问文章快照 |
|
实测!最新端侧全模态大模型Megrez-3B-Omni NLP工作站 · 公众号 · · 2 月前 · 访问文章快照 |
|
聊聊对强化微调(RFT)的理解及看法 NLP工作站 · 公众号 · · 2 月前 · 访问文章快照 |
|
瞎聊: SFT模型为何不如Pretrain模型 NLP工作站 · 公众号 · · 2 月前 · 访问文章快照 |