专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
专栏 二维码
他们也喜欢这个专栏
文章总数 30  • 
RSS订阅
今天看啥  ›  专栏  ›  YeungNLP
Firefly开源中文大语言模型官方公众号。
开通 RSS极速订阅 可分钟级获得文章
InternLM2.5 开源 1.8B 和 20B 模型
YeungNLP  ·  公众号  ·  ·  3 月前  ·  访问文章快照
Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存 审核中
YeungNLP  ·  公众号  ·  ·  6 月前  ·  访问文章快照
Unsloth微调Llama3-8B,提速44.35%,节省42.58%显存,最少仅需7.75GB显存 审核中
YeungNLP  ·  公众号  ·  ·  6 月前  ·  访问文章快照
Llama 3 五一超级课堂丨微调、量化部署、评测全覆盖,手把手带你免费学 审核中
YeungNLP  ·  公众号  ·  ·  6 月前  ·  访问文章快照
Qwen1.5-110B:首个国产千亿参数开源大模型 审核中
YeungNLP  ·  公众号  ·  ·  6 月前  ·  访问文章快照
弱智吧祛魅,与强Baseline的对比实验,差距明显 审核中
YeungNLP  ·  公众号  ·  ·  7 月前  ·  访问文章快照
关于弱智吧数据封神的若干疑问和猜想,以及数据验证实验 审核中
YeungNLP  ·  公众号  ·  ·  7 月前  ·  访问文章快照
书生·浦语大模型实战营第二期,公益AI课程,免费无套路 审核中
YeungNLP  ·  公众号  ·  ·  8 月前  ·  访问文章快照
使用Firefly在单卡V100上对Qwen1.5进行SFT和DPO,大幅超越Qwen1.5和Gemma 审核中
YeungNLP  ·  公众号  ·  ·  8 月前  ·  访问文章快照
红包封面,龙年大吉 审核中
YeungNLP  ·  公众号  ·  ·  9 月前  ·  访问文章快照
图解大模型推理优化之KV Cache 审核中
YeungNLP  ·  公众号  ·  ·  10 月前  ·  访问文章快照
书生·浦语大模型实战营——两周带你玩转微调部署评测全链路 审核中
YeungNLP  ·  公众号  ·  ·  11 月前  ·  访问文章快照
Mixtral-8x7B MoE大模型微调实践,超越Llama2-65B 审核中
YeungNLP  ·  公众号  ·  ·  11 月前  ·  访问文章快照
LongQLoRA:单卡高效扩展LLaMA2-13B的上下文长度 审核中
YeungNLP  ·  公众号  ·  ·  11 月前  ·  访问文章快照
详解基于调整RoPE旋转角度的大模型长度外推方法 审核中
YeungNLP  ·  公众号  ·  ·  11 月前  ·  访问文章快照
图解RoPE旋转位置编码及其特性 审核中
YeungNLP  ·  公众号  ·  ·  1 年前  ·  访问文章快照
QLoRA增量预训练与指令微调,及汉化Llama2的实践 审核中
YeungNLP  ·  公众号  ·  ·  1 年前  ·  访问文章快照