共计 1520 个字符,预计需要花费 4 分钟才能阅读完成。
阿里云发布的万亿参数模型并非仅仅是为了炫耀,而是将“算力钞票”转化为“入场门票”,迫使全球的客户重新排队。
在9月24日,阿里云推出了Qwen3-Max,参数达到惊人的1万亿,预训练数据量更是高达36万亿字符。其在SWE-Bench编程上获得了69.6分,在Tau2-Bench工具调用中得分74.8,直接超越ClaudeOpus 4,并且在AIME奥数测试中满分通过。
这些数字的展示并不是为了吸引媒体的目光,而是向华尔街和董事会表明:中国企业也能将模型打造成“价格锚”,未来在谈论折扣时,可以用这样的成绩单作为标准。
那么,阿里为何要将代码评分提升至接近人类程序员的水平呢?
因为企业在购买AI时,最关心的就是“能否节省一个程序员的成本”。
69.6分的成绩意味着外包团队的报价将会被迫下调,甲方可以立即在预算表中去掉“人力成本”的一项。这种变化远比任何品牌广告对首席财务官更具吸引力。
工具调用的74.8分同样来自于这一算法,能够将“订机票、查天气”等日常需求形成闭环,只有这样,客户才会将模型从实验室带入实际生产环境,阿里也能够将GPU的折旧成本摊到每一次航班和查询中,让算力变为按次收费的新税源。
MoE架构则是另一个关键因素。
虽然万亿参数的概念令人震惊,但实际上只有十分之一的参数会在推理过程中被激活,这样训练成本大幅降低至密集模型的三分之一。
阿里复制了Gemini和GPT-4的技术路线,同时在中文语料上投入了更多资金,尤其是在法律、医学和政务公文这样的高付费场景中,得分提升显著,使得MMLU进入全球前列。这意味着国内银行和法院可以避免使用英文模型带来的外汇风险,直接使用Qwen3-Max进行开发,合规且省钱。
这种算盘的声音传到海外也能被听见。
而且,36万亿字符的数据积累并不是随便从网页上抓取而来的。
阿里将淘宝详情页、菜鸟物流单和钉钉审批流程等信息全部纳入,模型天生理解“优惠活动”“发货延迟”“报销拒绝”等概念,企业在接入API时不需要再输入自家数据,直接就能使用。
数据壁垒转化为时间壁垒,客户省去数据清洗的流程,迁移成本提高,阿里因此把客户锁定在阿里云的账单中,按token进行收费。
长文本处理的能力同样针对法律、投资银行和研究机构等按页收费的行业。
一次性完成《三体》三部曲的阅读,等同于将尽职调查报告、招股说明书和病历档案全部汇总,模型输出摘要后,律师和分析师只需签字即可。
阿里出售的并非单纯的炫酷技术,而是“按页计费”这一传统商业模式的终结者,未来按字数收费的乙方必须重新调整报价。
在第四季度,阿里将开放API,首批将面向金融、医疗、教育等领域的领军企业,阿里希望先让这些有财力的客户进行试用。
银行可以承担高昂的算力费用,医疗行业能够支付合规成本,而教育领域的采购则依赖财政拨款。三者共同分担早期的投入成本,当价格曲线趋于平稳时,中小企业再进场时,阿里已完成折旧周期,能够进行价格竞争。
无论OpenAI和Anthropic多么迅速,也无法逃避中国的监管审查,阿里将本地化合规性打造成自身的护城河,外资模型只能眼睁睁看着订单流失。
国产模型是否能超越GPT-4,答案藏于账单之中:如果明年企业的预算表中“通义千问”相较于“GPT-4”便宜,同时法律审计也未被标注为风险,则GPT-4确实被超越了。
技术指标仅仅是入场券,而账单上的数字才是最终的胜负。
节省下来的那一笔成本,你认为阿里会让你留作利润吗?