共计 802 个字符,预计需要花费 3 分钟才能阅读完成。
文心快码为您提供“双重保障”! 全新接入 DeepSeek-V3.2-Exp 和 GLM-4.6 这两款顶尖模型, 旨在更好地满足开发者的需求,助力开发者在编程过程中高效应对复杂问题,带来更流畅的编程体验。让您的 Coding 状态迅速回归!
01 文心快码引入 DeepSeek-V3.2-Exp 模型
最近,DeepSeek 宣布推出 DeepSeek-V3.2-Exp 模型。该模型在 V3.1-Terminus 的基础上,创新性地引入了 DeepSeek Sparse Attention 技术,这种稀疏注意力机制在几乎不影响输出效果的情况下,显著提高了长文本的训练与推理效率。

02 文心快码接入 GLM-4.6 模型

智谱全新发布的 GLM-4.6 是 GLM 系列中最强大的代码生成模型,相较于 GLM-4.5 提高了 27%。在编程能力、上下文处理、推理能力与搜索功能等多方面超越前代产品:
卓越编码能力:在公开基准测试及实际编程任务中,与 Claude Sonnet 4 对齐,成为国内已知的最佳 Coding 模型。
扩展上下文长度:上下文窗口从 128K 提升至 200K,能够处理更长的代码和智能体任务。
增强推理能力:推理能力有显著提升,并支持推理过程中的工具调用。
优化搜索能力:提升了模型的工具调用与搜索智能体的表现,特别是在智能体框架中。
优异写作能力:在文风、可读性及角色扮演场景中更符合人类的偏好。
现在就前往官网下载文心快码,体验这两款强大模型带来的高效 Coding 体验吧!


DeepSeek的稀疏注意力机制真能提升效率吗?有使用过的朋友分享一下体验吗?