专栏名称: GiantPandaCV
专注于机器学习、深度学习、计算机视觉、图像处理等多个方向技术分享。团队由一群热爱技术且热衷于分享的小伙伴组成。我们坚持原创,每天一到两篇原创技术分享。希望在传播知识、分享知识的同时能够启发你,大家一起共同进步(・ω<)☆
今天看啥  ›  专栏  ›  GiantPandaCV

[LLM性能优化]聊聊长文本推理性能优化方向

GiantPandaCV  · 公众号  · 3D  · 2024-07-16 21:12

文章预览

原文:https://zhuanlan.zhihu.com/p/698308542 近期,LLM 的长文本能力越来越受到关注。LLM 处理长文本的能力可以应用在多个应用场景中,例如 LLM Agent 场景:假设 Agent 会调用不同的工具解决用户给出的任务,所以当用户对 Agent 提出一个任务时,Agent 会先调用一次 LLM,对给定的任务生成一系列的 Funtion Call,然后依次调用不同的 Funtion,Agent 将 Funtion 的所有输出结果作为输入,再调用一次 LLM,生成最终呈现给用户的自然语言。其中,通过 Function 返回的结果可能很长,多个Function结果拼起来可能是一个很长的输入,这样 Agent 模型就需要具备长文本处理能力。除了 Agent 以外,RAG、文本摘要都需要 LLM 模型具备长文本处理能力,这些应用在落地时需要 LLM 推理服务具备很高的长文本推理效率。笔者之前在介绍  vLLM 的文章中  介绍过与 LLM 推理服务性能最关键的因 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览