文章预览
阿里开源了全新的推理模型:QwQ-32B。 据官方发布消息,该模型性能比肩满血版 DeepSeek-R1(671B)! 可以看到在官方放出的评测图中, QwQ-32B 与满血版 DeepSeek R1(671B)在五项基准测试的得分不相上下,更是远超同尺寸 R1 蒸馏模型。 看到了这些消息后,我就开始上手深度测试。 QwQ-32B开源链接: 魔搭开源链接: https://modelscope.cn/models/Qwen/QwQ-32B huggingface开源链接: https://huggingface.co/Qwen/QwQ-32B 在线体验地址: https://chat.qwen.ai/?models=Qwen2.5-Plus 本地部署:保姆级实战教程 我在 AutoDL 上租用一张 4090,本地部 署了一个 QwQ-32B-AWQ 量化版本。 写了个保姆级部署教程 ,因篇幅 原因,大家可以按需查看~ 教程地址:https://datawhaler.feishu.cn/docx/Wz2NdqSx1oEZsuxB9zHcEQ20nNe 根据命令行打印的信息可以看到模型在一张 4090 GPU 上完美运行。我给他测试了最近很火的问题: 9.11 和
………………………………