共计 2514 个字符,预计需要花费 7 分钟才能阅读完成。
本报记者 李昆昆 李正豪 北京报道
最近,国内领先的大模型企业DeepSeek发布消息,V3模型已经完成了小幅升级,当前版本为DeepSeek-V3-0324。用户可以通过官方网页、App或小程序登录,进入对话界面并关闭深度思考功能,即可体验新版。API接口及其使用方式未发生改变。对于非复杂的推理任务,建议使用全新的V3模型,以便享受更加流畅且效果更佳的对话体验。
大模型通常分为语言模型与推理模型。目前国内较为常见的语言模型包括:DeepSeek V3、阿里通义千问Qwen2.5、腾讯混元Turbo、百度文心4.5,以及智谱GLM4等;而推理模型则有DeepSeek R1、QwQ-32B、腾讯混元T1、百度文心X1和智谱GLM-Z1等。
针对DeepSeek V3在同类产品中的表现,业内普遍关注。对此,爱分析的首席分析师李喆在接受《中国经营报》采访时指出:“推理模型是通过语言模型进行强化学习训练而成的,这一训练方法在DeepSeek R1的论文发布后已成为行业共识,因此各大模型厂商的竞争重点依然在语言模型上。”
易用性提升
DeepSeek方面表示,新版V3模型借鉴了DeepSeek-R1模型在强化学习训练过程中的技术,显著提升了在推理类任务上的表现。在数学、代码相关评测中,该模型的得分已超过GPT-4.5。此外,DeepSeek V3在代码处理、中文写作及中文搜索能力上也有了明显进步。
李喆认为,DeepSeek V3采用了混合专家(MOE)架构,而Qwen2.5则是密集架构。从企业应用的角度来看,Qwen2.5的密集架构使其参数量较小,对私有部署的硬件资源要求也更低,因而更适合企业用户进行部署。
具体而言,在数学和代码能力方面,DeepSeek V3在MATH数据集和HumanEval代码评测中表现优异,通过算法优化实现了复杂问题的逐步推理。而Qwen-32B则依赖插件系统来扩展其能力,混元T1则专注于应用层逻辑,例如游戏脚本生成。
在多模态与长文本能力方面,Qwen-32B原生支持图像理解和10万token的上下文窗口,而DeepSeek V3则需要通过外部工具链来扩展其多模态能力。混元T1在文本生成和长上下文依赖剪辑技术方面进行了优化,豆包则专注于短文本交互和实时性。
人工智能研究员Awni Hannun指出,新的DeepSeek V3模型能够在搭载M3 Ultra芯片的苹果电脑上以每秒20个token的速度运行。这一突破颠覆了行业对人工智能模型能力与本地化运行相抵触的传统认知,表明数据中心并非大模型的必需结合。
另一位人工智能研究员Xeophon透露,经过对新版DeepSeek-V3的内部测试,发现其在所有指标上均实现了显著跃升,现在的表现超越了甲骨文的Claude Sonnet 3.5,成为最佳的非推理模型。
未来发展趋势
谈到未来行业的发展趋势,盘古智库的高级研究员江瀚向本报记者表示:“首先,技术融合与性能突破是核心驱动力。DeepSeek V3-0324通过借鉴DeepSeek-R1的强化学习技术,在数学、代码等推理任务上超越GPT-4.5,这证明了技术融合对于模型性能提升的重要性。未来,大模型将会更进一步整合多模态学习、知识图谱、符号推理等技术,打破现有性能瓶颈。”
其次,应用场景的专业化与垂直化是必然的趋势。DeepSeek V3在前端开发、中文写作、中文搜索等领域的优化体现了大模型向垂直领域深入发展的路径。未来,在医疗、金融和法律等专业领域中,将会涌现出更多定制化的大模型,以满足行业对精准性、安全性和合规性的需求。
最后,用户体验的全面提升将成为竞争的关键。DeepSeek V3通过优化代码可用性、视觉设计和内容质量等多个细节,提高了用户的交互体验。展望未来,大模型将更加注重响应速度、交互自然性和个性化适配。例如,通过模型压缩和边缘计算技术来降低推理延迟,利用用户画像实现个性化服务,甚至通过情感计算技术来理解用户情绪,提供更为人性化的互动。”江瀚说。
李喆则认为,首先是语言模型与推理模型的结合。从OpenAI公布的信息来看,未来的GPT将会是一个综合性的模型应用,涵盖语言模型和推理模型,以应用形式向外提供服务。其次,开源与闭源模型将长期共存。从商业视角来看,全球第一梯队的模型必然是闭源模型;第二梯队将由1—2个开源模型和2—3个闭源模型组成;第三梯队则是多家闭源模型。闭源模型的商业模式将从license转向freemium,收费将依赖增值服务如部署运维、工具组件及垂直应用。
总体而言,李喆表示,未来大模型的发展将会展现出多维度、跨领域的融合与突破。技术层面的演进包括规模与效率的平衡,参数规模可能持续增长,但将更注重训练效率(例如稀疏模型、混合专家系统MoE)和能耗优化,避免盲目追求“规模”;多模态深度融合,将从文本、图像、音频的整合扩展到视频、3D建模、传感器数据,甚至模拟物理世界(如机器人控制);推理能力的提升,表现为通过思维链(Chain-of-Thought)、递归推理架构或神经符号系统来解决复杂的数学和逻辑问题;动态适应与持续学习,超越静态训练模式,实现增量学习,减少灾难性遗忘,以适应实时数据流。
同时,应用场景也将更加深化。垂直领域专业化体现在医疗(个性化诊疗)、法律(合同生成与漏洞检测)、教育(自适应学习系统)等领域出现行业专用模型;边缘计算的普及将使轻量化模型(如TinyML)部署到手机、物联网设备上,实现离线实时交互(如实时翻译、增强现实导航);科学研究的辅助将加速药物发现、材料设计和气候模拟,甚至提出可验证的科学假设;创造性的协作则将使其成为艺术创作、音乐生成和游戏设计的核心工具,推动人机共创模式的发展。
“未来大模型将向更加智能、专业、人性化和可持续的方向发展,但其进步不仅关乎技术问题,更是社会协作的挑战。成功的关键在于平衡创新的速度与伦理责任,构建一个技术、政策和公众认知协同进化的生态系统。”李喆总结道。