专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
目录
相关文章推荐
今天看啥  ›  专栏  ›  AINLP

【LLM模型微调】LLMs-PEFT[微调]-QLoRA总结笔记v6.0

AINLP  · 公众号  ·  · 2024-08-29 23:17

文章预览

【导读】:本文是LLM模型微调第六篇,分享论文QLoRA: Efficient Finetuning of Quantized LLMs的解读。主要内容有论文解读(提出背景、技术原理,细节补充...),实验效果,细节解析 和代码详解。 QLoRA相关 【#】LoRA相关论文及文档 QLoRA论文: QLoRA: Efficient Finetuning of Quantized LLMs 论文地址:https://arxiv.org/abs/2305.14314 Github地址:https://github.com/artidoro/qlora HF地址:https://huggingface.co/timdettmers QLoRA oral presentation at NeurIPS 2023: https://neurips.cc/media/neurips-2023/Slides/73855.pdf QLora训练更大的GPT文档: https://readpaper.feishu.cn/docx/CrMGdSVPKow5d1x1XQMcJioRnQe 8bit量化: https://huggingface.co/blog/zh/hf-bitsandbytes-integration 4bit量化: https://huggingface.co/blog/zh/4bit-transformers-bitsandbytes PEFT: https://https://github.com/huggingface/peft 【#】QLoRA-文章目录 QLoRA-论文解读 【1】QLoRA的提出背景~ 【2】QLoRA的技术原理 【3】QLoRA ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览