共计 553 个字符,预计需要花费 2 分钟才能阅读完成。
新京报贝壳财经讯(记者罗亦丹)在北京时间3月6日的凌晨,通义千问在其官方公众号发布消息,宣布推出全新的推理模型 QwQ-32B。这款模型的参数量达到320亿,性能与拥有6710亿参数(其中370亿被激活)的 DeepSeek-R1 不相上下。
通义千问指出,强化学习的应用显著提升了模型的推理能力。例如,DeepSeek-R1通过结合冷启动数据以及多阶段训练,达成了行业领先的表现,能够进行深层思考与复杂推理。而QwQ-32B则展示了在大规模预训练的强大基础模型上,强化学习的有效利用。
在文章中,通义千问对QwQ-32B与DeepSeek-R1及o1-mini等模型进行了功能对比,涵盖了多个基准测试,例如在考察数学能力的AIME24评测集,以及评估代码能力的LiveCodeBench中,千问 QwQ-32B的表现与DeepSeek-R1持平,超越了o1-mini和同尺寸的R1蒸馏模型。
目前,QwQ-32B已经在Hugging Face和ModelScope平台上开源,并遵循Apache 2.0开源协议。
编辑 胡萌
校对 王心
来源:今日头条
原文标题: 通义千问开源 32B 模型“以小博大”性能比肩 DeepSeek – 今日头条
正文完
