注册
登录
专栏名称:
深度学习自然语言处理
一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
数据派THU
·
深度强化学习实战:训练DQN模型玩超级马里奥兄弟
·
3 天前
今天看啥
›
专栏
›
深度学习自然语言处理
探索自然语言中的计划搜索:提升大型语言模型代码生成性能的新方法
深度学习自然语言处理
·
公众号
· · 2024-09-09 20:09
文章预览
论文 :Planning In Natural Language Improves LLM Search For Code Generation 链接 :https://arxiv.org/pdf/2409.03733 研究背景 研究问题 本文研究了如何在大语言模型(LLMs)的推理计算中进行有效的搜索,以提高代码生成的性能。具体来说,作者发现当前LLMs在推理时缺乏多样性,导致搜索效率低下。 研究难点 该问题的研究难点包括: 如何在推理时增加LLMs输出的多样性 如何有效地利用这种多样性来提高搜索效果 相关工作 经典的搜索算法如广度优先搜索、深度优先搜索和A*搜索在路径规划、规划和优化中有广泛应用。近年来,蒙特卡罗树搜索(MCTS)在游戏领域取得了显著成功。在语言模型搜索方面,Beam搜索显著提高了翻译系统的性能,repeated sampling方法通过多次生成候选代码来提高性能,但这些方法主要关注输出空间的搜索,而非潜在的想法空间。 研究方法 本文提出 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
数据派THU
·
深度强化学习实战:训练DQN模型玩超级马里奥兄弟
3 天前
纳米人
·
中国青年学者一作兼通讯,二维材料,再登Nature!
7 月前
逐梦一局
·
巾帼“她”力量,奋斗绽芳华
2 月前