主要观点总结
阿里巴巴发布新一代通义千问模型Qwen3,采用混合专家(MoE)架构,参数量大幅下降,性能全面超越R1、OpenAI-o1等全球顶尖模型。Qwen3还是国内首个“混合推理模型”,集成了“快思考”与“慢思考”,在推理、指令遵循、工具调用、多语言能力等方面大幅增强。同时,Qwen3提供和开源了丰富的模型版本,支持多种语言,全球开发者、研究机构和企业均可免费下载使用。后训练流程包括长链式思维冷启动、基于推理的强化学习等阶段。Qwen3发布后受到开发者热捧,一些开发者已经迫不及待使用。
关键观点总结
关键观点1: Qwen3模型的主要特点
采用混合专家(MoE)架构,参数量大幅下降,性能全面超越其他顶尖模型;国内首个“混合推理模型”,集成“快思考”与“慢思考”;在推理、指令遵循、工具调用、多语言能力等方面大幅增强。
关键观点2: Qwen3的部署与开源
Qwen3提供和开源了丰富的模型版本,支持多种语言;全球开发者、研究机构和企业均可免费下载使用;官方推荐使用SGLang和vLLM等框架进行部署,本地使用推荐Ollama、LMStudio等工具。
关键观点3: Qwen3的后训练流程
包括长链式思维冷启动、基于推理的强化学习、思维模式融合、通用强化学习等阶段。
关键观点4: Qwen3受到的反馈
发布后受到开发者热捧,一些开发者已经迫不及待使用;苹果机器学习研究员和网友给出了积极评价,但也提出了改进意见。
文章预览
整理 | 褚杏娟 4 月 29 日凌晨,在一众预告和期待中,阿里巴巴终于发布并开源了新一代通义千问模型 Qwen3。 Qwen3 采用混合专家(MoE)架构,总参数量 235B,激活仅需 22B。其中参数量仅为 DeepSeek-R1 的 1/3,成本大幅下降,性能全面超越 R1、OpenAI-o1 等全球顶尖模型。 Qwen3 还是国内首个“混合推理模型”,“快思考”与“慢思考”集成进同一个模型,对简单需求可低算力“秒回”答案,对复杂问题可多步骤“深度思考”,大大节省算力消耗。 Qwen3 在推理、指令遵循、工具调用、多语言能力等方面均大幅增强。在官方的测评中,Qwen3 创下所有国产模型及全球开源模型的性能新高:在奥数水平的 AIME25 测评中,Qwen3 斩获 81.5 分,刷新开源纪录;在考察代码能力的 LiveCodeBench 评测中,Qwen3 突破 70 分大关,表现甚至超过 Grok3;在评估模型人类偏好对齐的 ArenaHa
………………………………