共计 625 个字符,预计需要花费 2 分钟才能阅读完成。
在1月29日的凌晨,阿里云正式推出了通义千问旗舰版模型Qwen2.5-Max,进行了全新升级。
根据微信公众号“阿里云”的相关信息,Qwen2.5-Max是阿里云通义团队在MoE模型基础上取得的最新进展,预训练的数据量超过了20万亿个tokens。该模型展现出卓越的综合性能,在多项主流公开模型评测中均取得了优异的成绩,全面超越了全球领先的开源MoE模型及最大开源稠密模型。
当前,开发者们可以在Qwen Chat平台上免费体验该模型,企业与机构同样可以通过阿里云百炼平台直接调用该模型的API服务。
根据官方发布的信息,由于无法访问闭源模型如GPT-4o和Claude-3.5-Sonnet的基础模型,通义团队将Qwen2.5-Max与目前先进的开源MoE模型DeepSeek V3、最大开源稠密模型Llama-3.1-405B,以及位于开源稠密模型前列的Qwen2.5-72B进行了比较。在所有11项基准测试中,Qwen2.5-Max均表现优于对照模型。
图片
在1月28日,阿里云通义千问发布了全新的视觉模型Qwen2.5-VL,提供3B、7B及72B三个不同尺寸的版本。这个新的Qwen2.5-VL能够更加精准地解析图像内容,并具备突破性的能力,能够理解超过1小时的视频,无需任何微调,便可成为可以操控手机与电脑的AI视觉智能体(Visual Agents),实现如发送祝福、电脑修图、手机订票等复杂多步骤的操作。
本文为观察者网独家稿件,未经授权,不得转载。