今天看啥  ›  专栏  ›  程序猿阿三

研究篇| 一款深入浅出的微调框架

程序猿阿三  · 公众号  ·  · 2024-05-18 17:26
    

文章预览

点击蓝字 关注我们 不迷路 之前利用MedicalGPT跑过了《 微调实操一: 增量预训练(Pretraining) 》、《 微调实操二: 有监督微调(Supervised Finetuning) 》、《 微调实操三:人类反馈对语言模型进行强化学习(RLHF) 》、《 微调实操四:直接偏好优化方法-DPO 》等微调大模型实战, 其中MedicalGPT代码相对还是比较乱, 今天介绍一款开源star20K+的微调框架, 它是中国人开发, 代码结构相对MedicalGPT可阅读性强, 并且可扩展性也相对好很多, 这款框架的名称是LLaMA Factory. 01 为什么要微调 从计算资源成本上看, 之前在《 【小白入门篇6】常识|怎么计算模型需要的资源 》中介绍了模型训练需要大量的计算资源,一般情况下,个人和企业是无法承担的成本,所以微调的方案就出来, 关于微调的方式也很多,大部分微调方式都是固定模型参数(freeze model), 可以降低计算梯度等内存空间, 从而实 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览