专栏 RSS订阅(公众号)
温馨提示:订阅专栏后它将会自动更新,无人订阅的专栏有可能不会更新。
专栏 二维码
他们也喜欢这个专栏
文章总数 90  • 
RSS订阅
今天看啥  ›  专栏  ›  SparksofAGI
人工智能前沿论文解读
开通 RSS极速订阅 可分钟级获得文章
类比提示:简单却有效的提示技巧,增强模型复杂任务能力 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
将训练数据按相关性排序可以增强模型效果 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
符尧老师向你发起了关于Compression Theory的自由讨论邀请 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
欧洲对标OpenAI的公司发布Mistral系列,多规模超越Llama 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
从理论上说明像核采样这样的截断式生成方法为什么有效 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
噢!在这停顿!加入暂停标记训练推理,模型效果居然变得更好 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
大模型内在自修正技术仍难以在推理任务上生效 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
大语言模型会说谎?我们如何应对这种风险? 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
程序员我杀我自己?!CodePlan:结合LLM和规划,向代码库级别编码任务进军 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
作者投稿|BioCoder:旨在支持生物信息学代码开发的基准测试 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
小模型生成结构数据能比大模型更好吗? 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
DeepMind:语言建模即压缩 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
对比解码能提高大模型的推理能力 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
结合LLM与进化算法来生成超强提示 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
数据清洗策略研究,除人工构造规则之外用什么指标裁剪数据更好? 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
Dola:增强大模型事实性,减轻幻觉,甚至无需外部知识或微调 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
1.3B模型在复杂任务上挑战sota LLM,phi-1.5:重申构造教科书数据的重要性 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
让模型“深呼吸”会能力暴涨?将模型作为优化器优化出来的提示技巧有点离谱 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
用更宽的FFN构造新型Transformer架构 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照
模型知道自己是模型吗?一种新的涌现:大模型的情景自觉 审核中
SparksofAGI  ·  公众号  ·  ·  1 年前  ·  访问文章快照