讨论计算机视觉、深度学习和自动驾驶的技术发展和挑战
今天看啥  ›  专栏  ›  大语言模型和具身智体及自动驾驶

LLM FineTuning(大模型微调)

大语言模型和具身智体及自动驾驶  · 公众号  ·  · 2024-06-22 00:28
    

文章预览

    本篇从背景、概念以及工具三个方面来介绍大模型的微调。 一、背景    主流的 开源大模型主要都是使用通用数据进行训练,这些模型再对于使用场景和垂直行业领域的效果需要采用特定的行业数据进一步的的提升,因此针对该需求,就产生了FineTuning微调的需求。 二、FineTuning微调     简单来说, FineTuning 微调是指调整大型语言模型(LLM)的参数以适应特定任务的过程。 FineTuning微调可以分为:全微调和参数高效微调;     1、全量微调(Full Fine-Tuning)     全量微 调利用特定任务数据调整预训练模型的所有参数,以充分适应新任务。 它依赖大规模计算资源,但能有效利用预训练模型的通用特征。     2、参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)     PEFT旨在通过最小化微调参数数量和计算复杂度,实现高效的迁移学习。 它仅 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览