专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
今天看啥  ›  专栏  ›  AINLP

【LLM模型微调】LLMs-微调经验-LLaMA微调指南v7.0

AINLP  · 公众号  ·  · 2024-09-01 22:16

文章预览

【导读】:本文是LLM模型微调第七篇,分享Meta于20240807的开源三篇文章:Methods for adapting large language models,To fine-tune or not to fine-tune,How to fine-tune: Focus on effective datasets。 【#】LLaMA微调指南-文章目录 Methods for adapting large language models 【1】LLM适应方法-Approaches to LLM adaptation 【2】选择正确的适应方法-Choosing the right adaptation method https://ai.meta.com/blog/how-to-fine-tune-llms-peft-dataset-curation/ To fine-tune or not to fine-tune 【3】微调or not ?To fine-tune or not to fine-tune 【4】与其他领域自适应技术的比较-Comparison with other techniques for domain adaptation https://ai.meta.com/blog/when-to-fine-tune-llms-vs-other-techniques/ How to fine-tune: Focus on effective datasets 【5】Full fine-tuning vs. parameter-efficient fine-tuning (PEFT) 【6】数据集管理Dataset curation https://ai.meta.com/blog/how-to-fine-tune-llms-peft-datase ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览