共计 4671 个字符,预计需要花费 12 分钟才能阅读完成。
在 2025 年末的人工智能编程领域,来自中美两大 AI IDE 龙头企业的消息为这个已经热闹非凡的市场增添了新的活力。
字节跳动旗下的 AI 编码工具 TRAE 在 12 月 26 日发布了其年度报告,报告中指出,TRAE 自发布以来不到一年,为全球用户生成了近 1000 亿行代码,并处理了 5 亿条开发相关查询。目前,其全球用户总数已经超过 600 万,覆盖近 200 个国家和地区,月活跃用户数攀升至 160 万。
这样的数据意味着什么呢?开源项目分析机构 OpenDigger 的统计显示,全球 GitHub 活跃开发者总数约为 7700 万。根据这一数据计算,全球每 13 名开发者中就有 1 人在使用 TRAE。
更值得关注的是用户的增长动力与粘性,近六个月内,TRAE Token 的消耗量激增了 700%,6000 名核心用户的年使用天数超过 200 天,国际版的付费用户更是实现了每周全勤。
与此同时,同样处于这一领域的黑马 Cursor 也传来了融资的好消息:11 月 14 日,Cursor 的母公司 Anysphere 成功完成了 23 亿美元的融资,估值一跃至 293 亿美元,这个 数字超出了国内六大模型的总估值。
然而,回溯到一年前,行业对 AI IDE 的评价却是充满了质疑:有人认为它们不过是 VS Code 的魔改版,无法用于生产环境,只能迎合没有开发经验的初学者……这样的讽刺在技术圈中随处可见。
在短短一年内,行业口碑的戏剧性转变背后究竟发生了什么?
通过对 TRAE 在 2025 年进行的超过 200 次迭代的细致回顾,我们发现,这一质变的核心原因正隐藏在 性能、全能与智能这三个关键行业词汇中。
01
性能:AI 编码实现生产落地的基石
2025 年,整个大模型产业面临的主题已从前一年的百模大战,迅速转向AI IDE 的爆发,市场的关注焦点也从单一能力的考量,升级为用户体验的全方位考量。
而 性能 则成为 AI IDE 逆袭的核心逻辑之一。
TRAE 年度报告中的数据为这一点提供了有力支持:自 6 月以来,TRAE 的补全延迟降低超过 60%,客户端首个 Token 的耗时减少了 86%;自 9 月起,TRAE 的首次构建耗时减少超过 70%,非首次构建耗时也下降了 80%;在稳定性方面,TRAE 在 MacOS 上的崩溃率降至 0.43%,Windows 系统降至 0.71%,补全成功率和会话成功率均超过 99%,而面板进入成功率高达 99.93%。
当然,这些工程优化通常不在各类测评榜单的重点之内,但对于开发者的实际体验却至关重要:
这意味着开发者不再因等待补全而中断思路,也无需因工具崩溃而重复劳动;同时,这也 标志着 AI 编程工具的可用性和稳定性,已成功跨越了从演示到生产环境的关键一步。
字节内部的实践正是最佳证明:据悉,字节内部 92% 的工程师都在使用 TRAE 来加速开发进度;其中,抖音生活服务在 DevOps 全流程中引入 TRAE 后,AI 代码的贡献占比高达 43%,这大约使得人效提升近一倍。
但性能的改进仅是实现生产落地的第一步,如何提供完整的开发体验,才是今年下半年以来行业竞争的关键所在。
02
全能:全流程开发的完整连接
随着性能达标,自今年下半年起,AI 编程工具的竞争已从代码补全、检索等单一任务,升级为全流程覆盖的综合解决方案。
在这场竞争中,Cursor 和 TRAE 的迭代路径极具代表性。
2025 年 10 月,Cursor 正式推出 2.0 版本,宣告支持多模型并行执行、内置浏览器代码测试及语音转码功能,目标直指全流程开发。
而 TRAE 的布局则更早:7 月从 1.0 阶段(插件 +IDE)升级到 2.0 阶段(SOLO Beta),集成编辑器、终端、浏览器等多种工具视图,打通从需求构思到代码落地的完整链路;11 月再推出 3.0 阶段 SOLO 正式版,主打「The Responsive Coding Agent」,实现从工具集成到智能协同的升级。
截至目前,TRAE 的 IDE 模式,其核心支撑体系包括智能体、MCP(模型上下文协议)、上下文管理和 Cue 四大模块,而 SOLO 模式在此基础上进一步增强了对话流、工具面板和上下文管理的能力。
值得一提的是,SOLO 模式中的 SOLO Builder 可直接处理 PRD、技术架构文档,并集成 Figma、Supabase、Stripe、Vercel 等主流工具。这意味着,AI 编程软件能够覆盖完整的开发流程,在连续、多轮及更复杂的项目中承担更多实质性工作的能力。
支撑这种全能性的,是行业在上下文管理和工具调用能力上的突破,这也是企业用户选择专业 AI IDE 而非原始大模型的核心原因。
我们先来看超长的上下文管理能力。企业级项目对历史代码的调用和复用程度极高,部分大型项目的复用率甚至超过 80%,而处理海量代码是大模型的天然短板。
以 Google Chrome 浏览器为例,其代码量达数百万行,按每行代码 5 -10 个 Token 计算,完整加载需上千万 Token,远超当前大模型普遍的 20 万 Token 上下文窗口。
专业的 AI IDE 则能够针对这一问题,通过引入向量数据库构建 RAG,或对历史内容进行剪裁、分类、优化和压缩等操作,进行上下文管理,从而确保海量代码能够被检索到,同时避免过长的上下文撑爆大模型。
例如,TRAE SOLO 的解决方案就同时引入了以上两种模式,支持一次检索 10 万个代码文件,通过索引构建实现全仓库的上下文覆盖,使得大型项目的开发不再受限于模型上下文窗口的限制;同时推出智能压缩机制,当上下文超过窗口限制时,能够自动压缩,用户也可手动触发压缩,释放上下文资源,提升模型输出效果。
此外,考虑到实践中上下文类型的多样化,TRAE 还支持添加 10 余种上下文类型,包括 #file(文件)、#folder(文件夹)、#doc(文档)、#code(代码)、#figma(设计稿)、#image(图片)等。
如果说更强的上下文检索与更强的大模型,能够让模型深入大型、企业级项目的开发;那么工具使用能力的进化则为 AI 编程软件在企业级项目中提供了全流程覆盖的有力支持。
TRAE 目前支持的 MCP,涵盖浏览器自动化(Chrome DevTools、Playwright)、AI 辅助推理(Sequential Thinking)、系统工具(文件管理、命令执行)、专业工具(IDA Pro 反汇编、Supabase 数据库操作)等多个品类,总数量达到 1.1 万个。
借助这些海量工具的接入,企业在项目的不同开发环节能够在同一流水线上高效、无损对接:比如,集成 Figma 实现了设计稿直接转代码,解决了前端开发中设计与开发的衔接难题;集成 Supabase 打通了数据库操作链路,无需切换工具即可完成数据层开发;Stripe 的集成让支付功能开发无需重复对接第三方接口;Vercel 的接入则实现了代码编写与部署的即时联动。
在实际项目中,这意味着过去开发一个带支付功能的 H5 时,企业需要在设计工具、编辑器、数据库工具和部署平台之间反复切换,而现在使用 TRAE SOLO 模式,只需在一个界面内即可完成所有操作。
但问题在于,专业项目中,AI 生成的代码,我们真的能信赖吗?
03
智能:如何在 AI 自主能力与可控性之间找到平衡
一个有趣的对比是,自今年十月以来,AI 编程领域掀起了一股 Agent 热潮:从开源代码平台 GitHub,到大模型开发者 OpenAI,再到主流 AI IDE 产品 Cursor 和 TRAE,纷纷投入其中,试图让 AI 能够自主理解开发目标、承接上下文并自主调度工具,以独立推进开发各个阶段的任务。
| 产品 | 2025 年 10 月 -2025 年 11 月 | 核心 Agent 能力 |
| GitHub Copilot | 上线 Agent HQ 平台 | Claude Code、Codex、Jules 等多源 Agent 统一管理、面向特定任务、可定制 |
| OpenAI Codex | 开发者大会正式发布 | 可以将支持 Codex CLI 的 Agent 嵌入工作流、工具和应用 |
| Cursor | 2.0 版本迭代上线 | 多个 Agent 并行,支持多个 Agent 解决同一问题、支持自动测试代码 |
| TRAE | SOLO(正式版)对外发布 | 定位为 The Responsive Coding Agent,以 AI 为主导,能够理解开发目标、承接上下文并自主调度工具,独立推进开发各阶段任务 |
TRAE SOLO 正式版无疑是其中增长最为迅速的产品:数据显示其国际版 SOLO 模式从 Beta 到正式版,用户累计渗透率达 44%,问答规模猛增 1300%。中国版 SOLO 上线后,每 10 位 TRA 开发者中就有 3 位采用 SOLO,问答规模增长 7300%,用户交互深度提升 74%。
然而,供给侧的狂热与需求侧的谨慎形成鲜明对比:近期多家大企业陆续出台了 AI 编码限制政策,除了担忧信息泄露,AI 生成项目中存在的 BUG 数量也成为核心顾虑。在实际生产中,AI 花费两分钟生成的代码,往往需要程序员花费 20 分钟进行审核,之后再用两小时修复 BUG。
这种对比反映了 AI 编程领域面临的重大困境:我们如何在提升 AI 自主能力的同时,确保代码的可控性和可追溯性?
TRAE 的解决方案在于将「结对编程」的理念有效整合进 AI 工具的设计中。
这一概念起源于 XP 敏捷开发,其核心在于两个角色的紧密合作:一名驾驶员负责编写代码并关注细节,而另一名导航员则负责掌控方向,识别潜在问题。
在此基础上,TRAE SOLO 对该模式进行了进一步的提升:用户在使用 SOLO Coder 智能体时,可以选择「Plan」模式。在接到任务后,AI 不会立即开始编写代码,而是先生成一份详细的开发计划,开发者可以与 AI 进行多次沟通,明确开发阶段、任务分解及技术选择,只有达成一致后再进入代码的编写。
此外,在大规模项目中,任何一个小变动都可能引发连锁反应。如果 AI 生成的代码不够规范且存在过多黑箱,短期内看似高效,但实际上却将项目风险积累,形成难以解决的技术债务。
因此,Reddit 上曾流行一句玩笑话:原本只有代码的作者和上帝能理解这些代码,使用 AI 编码后,似乎只剩下上帝能看懂了。
为了满足大型项目对标准化的更高需求,TRAE 推出了自定义智能体的功能。开发者可以根据项目的特定开发规范和流程要求,创建专属的智能体,从而确保 AI 生成的代码能够自然而然地符合团队的编码习惯和质量标准。
根据数据显示,57% 的 TRAE 中国版用户会使用多于一种智能体,而国际版的这一比例则高达 84%。目前,TRAE 累计创建和编辑的自定义智能体达到了 36.5 万个。
04
总结
在过去的一年多里,关于 AI 编程,业界一直存在一个问题:当大型模型的能力已足够强大,甚至能够直接通过对话生成代码时,为什么我们仍然需要专门的 AI IDE 软件?
前 a16z 合伙人 Benedict Evans 最近在其老东家的播客中对此提出了看法:当你与一个空白的聊天机器人对话时,你的提问不仅需要表达你的需求,还要包含实现该需求的所有细节。
换句话说,一个优秀的产品是能力与经验的结合,最终为用户提供的是解决方案,而大型模型仅仅是其中一个被封装的元素。而 用户在实现细节的打磨过程中,交付的是一整套完整的解决方案。
从这个视角来看,TRAE 实质上是字节跳动在代码开发领域的先进经验以及大型模型能力的深度整合。
作为国产 AI IDE 的领军者,TRAE 本质上是一个「伪装」成 AI IDE 的字节跳动能力全家桶。


TRAE的成功让我想起了那些年初期的AI工具,技术圈的变化真快。