专栏名称: GiantPandaLLM
专注于机器学习、深度学习、计算机视觉、图像处理等多个方向技术分享。团队由一群热爱技术且热衷于分享的小伙伴组成。我们坚持原创,每天一到两篇原创技术分享。希望在传播知识、分享知识的同时能够启发你,大家一起共同进步(・ω<)☆
目录
相关文章推荐
今天看啥  ›  专栏  ›  GiantPandaLLM

TRT-LLM中的Quantization GEMM(Ampere Mixed GEMM)CUTLA...

GiantPandaLLM  · 公众号  · 3D  · 2024-08-01 22:53
    

主要观点总结

文章介绍了在TRT-LLM中如何基于CUTLASS 2.x实现PerChannel/AWQ/SmoothQuant等量化方法在模型推理过程的计算,并详细记录了每一页Slides的要点。文章讨论了TRT-LLM中的量化主要分为Mixed GEMM和Universal GEMM两类,以及不同量化技术的实现方法和特点。同时,也提到了TRT-LLM中对于权重Layout的设计,以提高性能。

关键观点总结

关键观点1: TRT-LLM中的量化方法

TRT-LLM中的量化主要分为Mixed GEMM和Universal GEMM两类,其中Mixed GEMM的Activation和Weight的数据类型不同,而Universal GEMM的数据类型相同。

关键观点2: PerChannel/AWQ/SmoothQuant等量化技术的实现

PerChannel在推理时会先对Weight进行乘Scales的反量化,AWQ和GPTQ的权重是GroupWise的,需要在反量化时乘以Scales并加上Zeros。SmoothQuant不需要在GEMM前做反量化,其Scale在输出时应用。

关键观点3: 权重Layout设计

TRT-LLM中为了性能考虑对B矩阵的Layout进行调整,例如采用ColumnMajorTileInterleave的Layout,以利用高效的128比特load指令,以及确保A, B矩阵都能用ld.128指令进行load。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照