专栏名称: AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
目录
今天看啥  ›  专栏  ›  AINLPer

LLM每周速递!大模型最前沿:推理加速、模型微调/对齐、开源LLM、大模型Agent、多模态

AINLPer  · 公众号  ·  · 2024-11-10 21:32

文章预览

点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 引言 紧跟技术发展趋势,快速了解大模型最新动态。一周的时间又要结束,今天继续总结最近一周的研究动态,本片文章攻击梳理了11篇有关大模型(LLMs)的最新研究进展,其中涉及涉及大模型混合上下文学习(ICL)、大模型推理加速、大模型推理时对齐、多模态模型、上下文LoRA微调、开源大模型、强化学习(RLHF)优化等热门研究。 爱丁堡|混合上下文学习 https://arxiv.org/pdf/2411.02830 无需对大模型进行微调,上下文学习主通过给大模型(LLM)提供相关示例来实现希望的输出。面对大量的示例,大模型照单全收,随着示例越来越多,就会导致Transformer LLM的复杂度呈平方级增长,进而消耗大量的内存资源。 针对以上问题,这篇文章针对此问题提出了“混合上下文学习”(MOICL)模型。通过 「动态判 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览