主要观点总结
本文介绍了NVIDIA AI技术开放日关于TRT-LLM最佳部署实践的讲座内容,包括TensorRT-LLM的介绍、端到端workflow、如何debug、如何添加新的模型、安装过程、转换权重等关键点。文章还涵盖了调试方法、编译加速、模型精度测试以及新模型的添加流程等。
关键观点总结
关键观点1: TensorRT-LLM介绍
介绍TensorRT-LLM的功能和定位,包括大模型推理支持,模型结构,runtime调度,kernels优化,量化技术等。
关键观点2: 端到端workflow
描述使用TRT-LLM进行大模型推理的完整流程,包括转换权重格式、搭建网络结构、build engine、测试和运行等步骤。
关键观点3: 如何debug
介绍调试TRT-LLM的两种logger,可通过设置环境变量或传入参数开启,帮助定位错误位置。
关键观点4: 安装过程
说明TRT-LLM的安装方式,包括利用docker自行编译源码、通过pip安装、借用NVIDIA NGC提供的镜像等方式。
关键观点5: 转换权重
介绍TRT-LLM统一了convert接口的好处,以及权重转换后需要把权重塞到模型中的过程。
关键观点6: 如何添加新的模型
介绍添加新模型的流程,包括仿照llama的实现,实现convert权重相关的地方,以及如果官方提供的例子没有模型中某些层的实现时的处理方法。
文章预览
本篇文章根据 NVIDIA AI技术开放日 2024 夏 [1] 中 TRT-LLM 最佳部署实践 [2] 的演讲,结合自己的一些经验整理成本篇文章,算是TensorRT-LLM初探第三篇——最佳部署实践。 下文图片PPT部分皆来源于 TRT-LLM 最佳部署实践 [3] 。 之前两篇的传送门: TensorRT-LLM初探(一)基于最新commit运行llama,以及triton-tensorrt-llm-backend [4] TensorRT-LLM初探(二)简析了结构,用的更明白 [5] 本篇根据讲座的内容也大概分为以下几点: TensorRT-LLM介绍 端到端workflow 如何debug 如何添加新的模型 TRT-LLM简单再介绍 TensorRT-LLM的介绍前几篇中已提到,就不过多赘述了。 这里列一个TensorRT-LLM的功能和定位: trt-llm 功能与架构 TRT-LLM和vllm、lmdeploy、 sglang [6] 一样,提供大模型的推理支持,包含了大模型推理的: 模型结构,提前定义好的模型结构 runtime调度(inflight batching、kv cache reuse) kernels(M
………………………………