今天看啥  ›  专栏  ›  NLP工作站

大模型论文淘金

NLP工作站  · 公众号  · 互联网安全 科技自媒体  · 2024-09-12 09:09

主要观点总结

本文主要介绍了作者关于判断论文价值的一些经验,涵盖了工程能力提升、纯学术提升和技术报告的关键点。重点提及了数据清洗方法、pretrain 数据配比等技能点,并对评估训练方法的论文提出重要性分析。文章还讨论了当下论文评估的瓶颈,开源模型刷榜的现状,以及企业论文和高校工作的区别与趋势。最后提到了多模态技术的重要性和对可解释性工作的看法。

关键观点总结

关键观点1: 工程能力提升

分享了当下最有含金量的论文所关注的重点技能点,包括数据清洗方法、pretrain 数据配比等。

关键观点2: 评估训练方法的论文重要性分析

强调了评估在当下最大的瓶颈,以及评估工作论文的重要性,提出谁评估快、准,谁就能积攒更多的训练经验。

关键观点3: 开源模型刷榜的现状

描述了范大将军对开源模型刷榜的点评,提到了各大模型的对标竞争和技术的内卷现状。

关键观点4: 企业论文与高校工作的区别与趋势

分析了企业论文和高校工作的不同侧重点,包括企业更注重实操大模型训练,而高校工作更多集中在理论研究和数据集构造等方面。

关键观点5: 多模态技术的重要性

讨论了多模态技术相对于纯文本技术的优势,以及其对未来大模型发展的影响。

关键观点6: 对可解释性工作的看法

作者表达了对可解释性工作的推崇,但同时也提醒读者不能过于依赖可解释性而忽视实际问题解决的能力。


文章预览

今天带来一篇知乎好友@ybq 的文章,主要分享给大家判断论文价值的一些经验。 注意:该经验更多的是辅助提升工程能力,对纯搞学术的同学并无帮助,还望理解。 知乎:https://zhuanlan.zhihu.com/p/719626313 技术报告 没啥说的,当下最最最有含金量的论文,值得反复阅读。重点留意:数据清洗方法、pretrain 数据配比、pretrain 超参数、退火阶段、sft 的 task 种类、sft 的数据量级、dpo / ppo 训练技巧,合成数据方法等。 我个人觉着,国外 llama、mistral 是最大方的,国内 deepseek、minicpm 是最大方的。 OpenAI OpenAI 2023 年以前的论文都属于百年陈酿,值得反复品味。它们那时候没名气,还很真诚、需要技术影响力。现在发布的东西,要么在秀肌肉,要么让人感觉哪里不太对劲。 评估 > 训练 这个观点我重点分析一下。大模型发展到现在,除非 OpenAI 挤出来更多的牙膏, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览