共计 776 个字符,预计需要花费 2 分钟才能阅读完成。
1月29日的凌晨,阿里云正式发布了其通义千问旗舰版模型Qwen2.5-Max的全新升级版本。
根据阿里云官方微信公众号的消息,Qwen2.5-Max是阿里云通义团队在MoE模型基础上最新研发的成果,预训练数据量已超过20万亿tokens。该模型展现出强大的综合性能,在多项主流模型的公开评测中获得了高分,全面超越了目前全球领先的开源MoE模型和最大的开源稠密模型。
现在,开发者可以在Qwen Chat平台上免费体验这一模型,企业和机构则可以通过阿里云百炼平台直接调用新模型的API服务。
官方资料指出,由于无法访问像GPT-4o和Claude-3.5-Sonnet等闭源模型的基础模型,通义团队将Qwen2.5-Max与当前最先进的开源MoE模型DeepSeek V3、最大的开源稠密模型Llama-3.1-405B,以及同样在开源稠密模型中排名靠前的Qwen2.5-72B进行了比较。在所有11项基准测试中,Qwen2.5-Max均表现优于对比模型。

图片来源于微信公众号阿里云
在1月28日,阿里云通义千问推出了全新的视觉模型Qwen2.5-VL,分为3B、7B和72B三个型号。新版本的Qwen2.5-VL能够更准确地解析图像内容,并且突破性地支持超过1小时的视频理解,无需微调即可变身为能够操控手机和电脑的AI视觉智能体(Visual Agents),实现向指定朋友发送祝福、进行电脑修图、手机订票等复杂操作。
本文为观察者网独家稿件,未经授权,不得转载。
