专栏名称: 吃果冻不吐果冻皮
专注于AI工程化(LLM、MLOps、LLMOps、RAG、Agent)落地。
今天看啥  ›  专栏  ›  吃果冻不吐果冻皮

vLLM这一年的新特性以及后续规划(总结版!)

吃果冻不吐果冻皮  · 公众号  ·  · 2024-11-07 12:16
    

文章预览

【点击】 加入大模型技术交流群 本文来自 The State of vLLM | Ray Summit 2024 & & RoadMap的 分享,带大家一起回顾下vllm发展历史、过去一年的发展及接下来Q4规划。 感兴趣的也可以查看原视频: https://www.youtube.com/watch?v=4HPRf9nDZ6Q [1] 过去一年vLLM的工作内容 记得vLLM在九月初 更新了一个版本 [2] ,性能有了明显的提升(支持了 multi step , 因为减少了CPU overhead,会对吞吐会有提升,但是带来的副作用是TTFT和ITL会变大 ),某些场景确实带来了收益。 vLLM在2024年更新了很多内容~首先是模型支持,支持几乎所有的llm和vlm模型且效率非常高,这点确实要比TRT-LLM支持更快更方便,涉及到底层改动支持的模型,TRT-LLM因为底层限制只能提个issue等官方支持。而vLLM就很方便,目前vLLM支持的模型有: 包括LLama系列模型/Mixtral系列模型/LLava多模态/State-Space模型/reward模型等 除 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览