专栏名称: 老刘说NLP
老刘,NLP开源爱好者与践行者。主页:https://liuhuanyong.github.io。老刘说NLP,将定期发布语言资源、工程实践、技术总结等内容,欢迎关注。
今天看啥  ›  专栏  ›  老刘说NLP

R1-GRPO强化范式用在KG抽取的粗暴实现:兼看RAG、推理加速等相关进展

老刘说NLP  · 公众号  ·  · 2025-02-11 11:40
    

文章预览

今天是2025年02月11日,星期 二,北京,天气阴。 今天我们来看看R1和知识图谱结合的一个粗暴结合,其实现方式,有种为了做RL而做RL的直蹭之嫌,从源码角度看具体实现。 另一个是回顾昨日社区技术进展早报,围绕强化学习R1用于知识图谱信息抽取、推理大模型四种习得范式,RAG-webui,RAG和deepseek部署加速。GraphRAG还是有一些推进。 专题化,体系化,会有更多深度思考。大家一起加油。 一、R1范式用在知识图谱抽取的粗暴实现 我们先看R1和知识图谱结合,open-r1-text2graph:开源复现DeepSeek R1的文本到图谱抽取训练方案。 十分粗暴,且不完整。不建议去复制, 。 基于GRPO强化学习,提升模型对结构化信息的提取能力;提供完整的数据生成、监督训练到强化学习的: https://github.com/Ingvarstep/open-r1-text2graph,https://huggingface.co/blog/Ihor/replicating-deepseek-r1-for-info ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览