一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
今天看啥  ›  专栏  ›  深度学习自然语言处理

LLM也怕你妈叫你回家吃饭这种模糊请求,纽大提出指导LLM澄清问题

深度学习自然语言处理  · 公众号  ·  · 2024-11-19 21:40
    

文章预览

这篇论文让我发现,原来机器人也怕小明的你妈叫你回家吃饭这种模糊请求啊! -- 小红书 巴比龙 在 大模型任我行 下的评论 论文:Modeling Future Conversation Turns to Teach LLMs to Ask Clarifying Questions 地址:https://arxiv.org/pdf/2410.13788 研究背景 这篇文章要解决的问题是大语言模型(LLMs)在处理高度模糊的用户请求时,常常默认一种解释,导致用户不满。现有的偏好数据标注方法仅基于先前的上下文,无法评估澄清问题的效用。因此,研究如何通过模拟未来回合的预期结果来标注偏好,使LLMs能够学习在后续回合中根据每个用户的解释生成有针对性的回答。 该问题的研究难点包括:现有偏好数据标注方法的局限性,难以评估澄清问题的效用;LLMs在处理模糊请求时倾向于直接回答而非提问,缺乏有效的训练方法。 该问题的研究相关工作包括:现有LLMs在处理模糊 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览