|
LLM每周速递!学术最前沿:大模型应用/微调、RAG应用/优化、CoT优化、多模态等 AINLPer · 公众号 · · 6 小时前 · 访问文章快照 |
|
读完两个博士是什么体验?Nature专访了3位双料博士 AINLPer · 公众号 · · 6 小时前 · 访问文章快照 |
|
UIUC | 提出“提取-精炼-检索-读取”框架:ERRR,提升RAG系统性能 AINLPer · 公众号 · · 4 天前 · 访问文章快照 |
|
今日爆款!Scaling Laws终结,量化无用,小模型或成未来? AINLPer · 公众号 · · 4 天前 · 访问文章快照 |
|
蚂蚁集团 | 提出多任务大模型微调方法:CoBa,LLM最高性能提升13%! AINLPer · 公众号 · · 5 天前 · 访问文章快照 |
|
突发!美43只猴子从实验室逃脱,或携致命病毒,目前只抓回一只! AINLPer · 公众号 · · 5 天前 · 访问文章快照 |
|
干货!来自一位资深大模型算法工程师的感悟——》RAG最佳实践 AINLPer · 公众号 · AI · 6 天前 · 访问文章快照 |
|
LLM每周速递!大模型最前沿:推理加速、模型微调/对齐、开源LLM、大模型Agent、多模态 AINLPer · 公众号 · · 1 周前 · 访问文章快照 |
|
哈工大 |大模型CoT任务推理优化,减少冗余步骤,提高推理效率! AINLPer · 公众号 · · 1 周前 · 访问文章快照 |
|
爱丁堡 | 混合上下文学习MOICL,动态选择最优提示,LLM准确度更高,计算效率更强 AINLPer · 公众号 · · 1 周前 · 访问文章快照 |
|
智谱 | 自我进化学习框架:WebRL:构建最先进的Web智能体 AINLPer · 公众号 · · 1 周前 · 访问文章快照 |
|
请不要忽略Bert!Oslo| 因果GPT+ 掩膜Bert,混合预训练建模:GPT-Bert,更强大 AINLPer · 公众号 · · 1 周前 · 访问文章快照 |
|
LLM超越人类时该如何对齐?谷歌用新RLHF框架解决了这个问题 AINLPer · 公众号 · · 1 周前 · 访问文章快照 |
|
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐 AINLPer · 公众号 · · 2 周前 · 访问文章快照 |
|
姜萍初赛成绩违反规则!其老师被诫勉谈话取消评优资格 AINLPer · 公众号 · · 2 周前 · 访问文章快照 |
|
谜底揭晓!排行榜第一的文生图模型:Red_Panda,竟来自创业公司,不是国产~ AINLPer · 公众号 · · 2 周前 · 访问文章快照 |
|
港科大 | 提出LLM越狱攻击新基准与评估体系,助力大模型安全研究 AINLPer · 公众号 · 科技自媒体 · 2 周前 · 访问文章快照 |
|
从文本RAG到多模态RAG!LMU | 构建多模态RAG系统的最佳配置 AINLPer · 公众号 · 科技自媒体 · 2 周前 · 访问文章快照 |
|
从此不再后训练!NeurIPS2024 & CMU | 提出推理时对齐方法,解码效率最高提升32倍 AINLPer · 公众号 · AI 科技自媒体 · 2 周前 · 访问文章快照 |