今天看啥  ›  专栏  ›  AI生成未来

LLM大模型之Rag检索增强生成演变成GraphRAG

AI生成未来  · 公众号  ·  · 2024-08-08 00:10
    

文章预览

点击下方 卡片 ,关注“ AI生成未来 ” RefAug:prompt增强训练LLM https://github.com/ytyz1307zzh/RefAug Learn Beyond The Answer: Training Language Models with Reflection for Mathematical Reasoning 论文提出了一种新的训练策略,名为“reflective augmentation”(简称RefAug),旨在通过在数学问题解答训练实例中嵌入问题反思,来培养语言模型(LMs)更深层次的理解能力。这种方法不仅提高了模型在标准单轮问答(QA)设置中的性能,也显著提升了模型在需要反思性思考的更复杂场景中的性能,如处理后续问题、纠正错误或利用外部反馈。 从项目代码中查看训练数据文件为 在答案中增加反思过程,通过训练以引导LLM主动反思,增强推理能力。在推理时,将reflective的部分进行字符串删除即可。 SeaKR:自我感知RAG SeaKR: Self-aware Knowledge Retrieval for Adaptive Retrieval Augmented Generation https://github.com/TH ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览