专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
今天看啥  ›  专栏  ›  AINLP

【LLM模型量化】-官方教程-qwen官方教程v2.0

AINLP  · 公众号  · AI  · 2024-10-07 10:12

主要观点总结

本文档介绍了三种量化方法:AWQ、GPTQ和llama.cpp,并展示了如何在Hugging Face transformers和vLLM中使用这些量化模型。此外,还介绍了如何使用AutoAWQ和AutoGPTQ来量化自定义模型,以及如何评估量化模型的性能。文档还包含了量化过程中的问题排查和困惑度评估。

关键观点总结

关键观点1: 介绍三种量化方法:AWQ、GPTQ和llama.cpp

AWQ是一种硬件友好的低比特权重量化方法,GPTQ是基于近似二阶信息的权重量化方法,llama.cpp原生支持大规模语言模型的量化。

关键观点2: 在Hugging Face transformers和vLLM中使用量化模型

transformers和vLLM支持使用这些量化模型,可以通过简单的代码片段来运行。

关键观点3: 使用AutoAWQ和AutoGPTQ量化自定义模型

提供了使用AutoAWQ和AutoGPTQ的示例代码,用于量化自定义模型。

关键观点4: 评估量化模型的性能

展示了如何使用llama.cpp计算模型的困惑度,以评估量化模型的性能。

关键观点5: 问题排查和困惑度评估

提供了在量化过程中可能出现的问题和解决方案,以及如何评估量化模型的困惑度。


文章预览

转载自qwen doc,:  https://qwen.readthedocs.io/zh-cn/latest/quantization/awq.html https://qwen.readthedocs.io/zh-cn/latest/quantization/gptq.html https://qwen.readthedocs.io/zh-cn/latest/quantization/llama.cpp.html 量化 🤗 -AWQ 对于量化模型,推荐使用 AWQ结合 AutoAWQ。 AWQ:https://arxiv.org/abs/2306.00978 AutoAWQ:https://github.com/casper-hansen/AutoAWQ AWQ 即 激活值感知的权重量化 (Activation-aware Weight Quantization),是针对LLM的低比特权重量化的硬件友好方法。 AutoAWQ 是一个易于使用的工具包,用于4比特量化模型。相较于FP16,AutoAWQ能够将模型的运行速度提升3倍,并将内存需求降低至原来的三分之一。AutoAWQ实现了AWQ算法,可用于LLM的量化处理。 在本文档中,将展示如何在Hugging Face  transformers 框架下使用量化模型,以及如何对模型进行量化。 【1】在Hugging Face transformers中使用AWQ量化模型 transformers 已经正式支持AutoA ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览