今天看啥  ›  专栏  ›  机器之心SOTA模型

今日开源(2025-02-25):TinyR1-Preview,32B推理模型,数学表现超越70B模型,5%参数接近完整R1性能

机器之心SOTA模型  · 公众号  · 科技自媒体  · 2025-02-25 18:09
    

主要观点总结

本文主要介绍了多个项目,包括基座模型TinyR1-Preview、DeepEP、BFS-Prover、ACLaMP 3、MHA2MLA、SurveyX等,它们分别在推理、通信库、定理证明、音乐信息检索等领域有所应用。文章还提到了DeepSeek系列模型和其他模型的更新和API调用地址。

关键观点总结

关键观点1: 基座模型TinyR1-Preview的介绍

TinyR1-Preview是北京奇虎科技有限公司推出的第一代推理模型,在数学领域的表现超过了70B模型Deepseek-R1-Distill-Llama-70B,在参数仅为5%的情况下,几乎达到了完整R1模型的性能。

关键观点2: DeepEP项目的特点

DeepEP是一个专为专家并行(EP)和专家混合(MoE)设计的高效通信库,提供高吞吐量和低延迟的全对全GPU内核,支持非对称域带宽转发,适用于训练和推理任务。

关键观点3: BFS-Prover项目的特色

BFS-Prover是一个基于大语言模型的自动定理证明系统,专注于在Lean4环境中生成策略,通过集成多种组件实现可扩展的定理证明,并在MiniF2F测试基准上取得了最先进的性能。

关键观点4: ACLaMP 3项目的功能

ACLaMP 3是一个先进的音乐信息检索框架,支持多种模态和语言,利用对比学习将多样的音乐模态对齐到一个共享的表示空间,实现无缝的跨模态检索。

关键观点5: 其他项目的简介

文章还介绍了MHA2MLA、SurveyX等其他项目,以及DeepSeek系列模型的更新和API调用地址。


文章预览

🏆基座模型 ①项目:TinyR1-Preview ★Tiny-R1-32B-Preview 是北京奇虎科技有限公司推出的第一代推理模型。 该模型在数学领域的表现超过了70B模型 Deepseek-R1-Distill-Llama-70B,并且在参数仅为5%的情况下,几乎达到了完整R1模型的性能。 项目通过在数学、编码和科学三个目标领域进行监督微调,结合多个领域的专用模型 ,最终使用合并工具创建了Tiny-R1-32B-Preview,展示了强大的整体性能。 ☆一键收藏: https://sota.jiqizhixin.com/project/tinyr1-preview 🛠️框架平台、必备工具 ①项目:DeepEP ★ DeepEP 是一个专为专家并行(EP)和专家混合(MoE)设计的高效通信库。它提供高吞吐量和低延迟的全对全 GPU 内核,支持低精度操作如 FP8。 该库优化了非对称域带宽转发,适用于训练和推理任务,并引入了基于钩子的通信计算重叠方法,以减少延迟。 ☆一键收藏: https://sota.jiqizh ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览