共计 6838 个字符,预计需要花费 18 分钟才能阅读完成。
字节跳动推出了 AI 编程助手 Trae 的 2.0 版本,并逐步开放给用户使用。此次更新新增了 SOLO 模式——这是一个具备上下文工程能力的系统,能够根据完整信息进行任务规划与执行,支持从代码编写到功能交付的全流程开发。
SOLO 是 Context Engineer,它是一个能够独立生成软件的 AI 工程师,能够替代人类处理开发过程中的繁琐、重复和标准化环节。
SOLO 模式被视为“AI 辅助”向“AI 主导”的重要转变。与传统上需要人工驱动的智能体或代码补全工具相比,SOLO 能够在理解需求的基础上,主动调度工具以完成复杂的开发任务。目前,该系统已支持 Web 应用的全流程交付,未来还将拓展更多应用场景。
很多开发者已经获得了内测资格,大家对 SOLO 模式的实际体验如何呢?
谢谢邀请,涉及个人利益:Trae 的核心开发者。转眼间,我在这一领域已经摸索了半年,今天想和大家分享一些关于 《重生之我在大厂搞 AI Coding》 的看法。
TLDR; 多图杀猫~
重生之我在大厂搞 AI Coding
时间线其实很简单:
- 2022 年 11 月 15 日,意外获得的蚂蚁大礼包让我不得不重新思考未来,幸而很快加入了字节跳动。
- 2023 年 11 月 15 日,我接到一个电话,被召集到杭州闭关室,开始负责 MarsCode Cloud IDE 团队的云工作区等相关任务,那是一段疯狂的时光。
- 2024 年 11 月 15 日,我再次进入了闭关室,经历了又一个疯狂的半年,这段时间孕育了大家看到的 Trae 1.0 和 2.0 的演变。
我常和朋友开玩笑说,11.15 是我的“受难日”,重生之我在大厂搞 AI Coding。今年的 11 月 15 日又会发生什么呢?我并不知道,但我很期待。
时光飞逝,半年已经过去,定坤在上个月的火山引擎 Force 大会上的主题演讲《聊聊 Al Coding》中提到,Trae 的月活跃用户已超过百万,我们算是交出了一份阶段性的答卷。


从 MarsCode 到 Trae
熟悉我们团队的朋友应该知道,2024 年我们推出了许多与 Cloud IDE 相关的产品,如 MarsCode Cloud IDE、Coze IDE 和掘金 AI 刷题等,字节内部的 Cloud IDE 也在我们的服务范围之内,用户覆盖率相当可观。
首先需要澄清一个概念,Cloud IDE ≠ Web IDE。从我的角度来看,IDE 可以分为前端交互层和业务逻辑层:
- 前端交互层可以在浏览器中运行,也可以在本地 Electron 环境中使用,既可以是完整版本,也可以是轻量版。
- 业务逻辑层则可以在用户本地运行,也可以部署在远程 K8S 容器中,甚至可以在浏览器的 WebContainer 中运行。
Cloud 意味着 Code Anywhere,上述的交互层和逻辑层可以自由组合,既可以在同一台机器上运行,也可以通过 SSH 远程连接,甚至可以用 iPad 进行操作。这是我对 Cloud IDE 的理解。
Cloud IDE 的远程容器,我们称之为云工作区,其技术挑战非常巨大:
- 常见的微服务是非实时的且无状态的,可以进行负载均衡,当容量不足时可以逐步扩展;
- FaaS 服务虽然是实时调度的,但它同样是无状态的,因此可以提前预热;
- Cloud IDE 则是 实时调度 + 有状态,每个项目对应一个容器,具备磁盘数据依赖,对启动速度极为敏感,用户在打开时必须等待初始化和加载才能使用,因为有磁盘代码数据,因此是有状态的,无法进行负载均衡,也很难进行预热。
在 2024 年,我们在这方面投入了大量精力进行优化,不仅对 VSCode 进行了大幅 Rust 化,还深入到 K8S 层面进行深度定制,最终在性能、成本和稳定性等方面取得了显著成果,我们的端到端启动性能 P90 达到 5 秒,而 GitHub Codespace 需要 30 秒,Google IDX 则需要 1 分钟,在这一指标上我们已经达到了世界级的水平。
MarsCode 启动速度 https://www.zhihu.com/video/1930983846276466605

当然,技术的成功并不一定意味着业务的成功。很多时候,选择合适的时机和路线至关重要。尽管 Cloud IDE 在字节的覆盖率很高,但作为面向消费者的产品,MarsCode 自然受到用户场景的限制,因为国内企业的代码迁移上云难度较大,而程序员的个人项目又不足以支撑产品的健康发展。
因此,在 2024 年 11 月 15 日,我们回归起点,选择了从 Native IDE 这条新路重新向 AI Coding 的巅峰攀登。当然,我依然坚信 Cloud IDE 的价值,它将以云端一体的方式与我们重聚,共同前行,一个也不能少。果不其然,到了 2025 年中,业界也开始关注 Remote Agent 场景,而我们在这方面已有相当的积累,准备好时机即可。

我对 AI Coding 的理解
之前在播客中也聊到过:《探秘 AI IDE,对话字节 Trae & 迪魔王 Devmore》
大型语言模型的本质在于预测下一个字符,相较于复杂的自然语言,编程语言则更为简洁、严谨且可预测,因此 AI Coding 领域成为了这一波潮流中的首个 PMF 产品。在这个领域的实践日新月异,几乎每个月都在挑战我们的认知。

标题:AI 编程的演变:从辅助工具到智能伙伴
在我看来,AI 编程的进展与自动驾驶有相似之处,可以划分为几个阶段:AI 辅助编程 → AI 结对编程 → AI 自主编程。目前,像 Trae Builder、Cursor Composer 和 Windsurf Cascade 等工具,正聚焦于 AI 结对编程这一阶段。

AI 辅助编程
代码补全
早期的编程工作中,我们主要依赖代码提示功能,通过“下拉菜单”选择相关对象的方法和属性。
随着 ChatGPT 的问世,我们逐渐认识到,LLM 大模型的核心在于预测下一个字符。与复杂的自然语言相比,编程语言显得更加简练和严谨,因此,Copilot 的出现为代码补全带来了巨大的创新,其惊艳的 Ghost Text 交互方式让程序员只需轻触 Tab 键即可快速采纳,极大地激发了他们的创造力。

然而,这种方式仅限于新增代码的补全,因此,Codeium 和 Cursor 在超级补全(Super Completion)方面进行了进一步的创新。以一个直观的例子来看,前端的地区下拉列表,初始是英文,随后改为中文。假设你修改了第一行的某个字段,仅需再次按 Tab,就能一键更新所有相关字段。我们最近发布的 Trae Cue 超级代码补全功能,正是这一创新的体现。
从“代码提示”到“代码补全”,再到“超级补全”,这展示了 AI 编程能力的巨大飞跃。

代码生成
接下来谈谈“代码生成”。在 ChatGPT 刚上市时,它给程序员带来了另一种震撼的体验——通过对话生成算法或页面。可惜的是,这仍需在聊天机器人中手动输入,然后再复制到 IDE 中,实在繁琐。
那有没有可能直接在 IDE 内与 AI 对话呢?于是,IDE 中开始出现 SideChat 这种功能,许多插件如 Copilot Chat、Codeium 等也随之而来。它们的优势在于能够直接获取 IDE 和代码仓库的上下文信息,而无需手动复制。

虽然这看起来很高大上,但其原理其实十分简单。比如,当你告诉 AI:“帮我实现这个 HTTP 请求函数”,它背后实际上在拼接一段描述:“用户目前打开 xx 文件,光标位于 xx 行,该行的函数名和注释是 xxx,他最近访问过 a、b、c 文件,整个项目的目录结构是 xxx,现在他要求在当前位置实现一个 HTTP 请求逻辑。”然后把这段话传递给 LLM 生成代码,最后再进行代码合并。无论如何,这与手动与 ChatGPT 对话的过程没有太大区别,IDE 只是帮你组装了合适的上下文。
这一技术的关键在于:项目理解能力、上下文裁剪、模型能力以及工程的 PE 能力。Cursor 在这些方面表现尤为出色,脱颖而出。Claude Sonnet 3.5 的出现,标志着模型能力的一个里程碑,去年引发了一波热潮。
此时,开发者能够直接在 IDE 中与 AI 共享相同的上下文信息,避免了繁琐的转述。那么,接下来的挑战是如何将生成的代码自动合并到相应的位置,这便是 Fast Apply 代码合并 的场景。
简而言之,关键在于让 AI 生成合适的代码,并自动将其合并到合适的地方。实现方式多种多样,例如全文重写、代码片段替换、Diff 合并等。在业界,许多实践结合使用,而 Cursor 则训练了一个 Fast Apply 小模型,Trae 则支持多种合并方式。

上述两个能力阶段,我称之为 AI 辅助编程。
AI 结对编程
AI Agent 的定义
随着 AI 能力的不断增强,用户需求变得愈加复杂。我们希望 AI 能具备更多的自主性,类似于一个高潜力的实习生与我们一同进行结对编程,社区称之为 AI Agent。
那么,一个典型的 Agent 是如何工作的呢?Manus 最近的一篇文章提到:
『在接收用户的输入后,Agent 通过一系列工具来完成任务。在每次迭代中,模型根据当前上下文从预定义的动作空间中选择一个动作。然后,该动作在环境中执行以产生观察结果。动作和观察结果被附加到上下文中,形成下一次迭代的输入,这个循环持续到任务完成。』
简单来说,Agent 的核心在于:AI 具备了 思考能力 、 调度能力 、 上下文环境感知能力 和工具调用能力。它能够感知所处环境,并根据接收到的目标进行思考和拆解子任务,调度各种工具来完成这些任务。

小插曲:如果你在使用 Trae 时发现需要手动“Apply 应用”,请一定检查一下 Chat 对话框中是否缺少 @builder。下次一定会优化!
Trae Agent 1.0
Trae Agent 于 2024 年 12 月 17 日启动,经过 20 天的努力,推出了大家所见的 Trae 1.0 版本。

在 Agent 1.0 的架构中,由于当时大模型的能力尚未达到理想状态,我们的流程更依赖于 Workflow,即思考 → 规划 → 执行 → 观察的循环。它在 Trae IDE 环境中运行,利用 IDE 的功能收集信息、构建上下文,并依靠大语言模型进行思考和规划。同时,借助 IDE 提供的文件操作、命令行操作等功能进行工具调用,满足编码需求。

此外,Agent 的流程还包括 Code Knowledge Graph 知识图谱(代码召回)、Fast Apply 代码合并等功能。
顺便吐槽:有时看到社区里有人说 AI IDE 仅仅是 LLM 的外壳,真是让人无奈,他们连领域知识的门槛都未曾触及。
Trae Agent 2.0
随着大量用户反馈的收集,我们收到了一些批评意见,发现 1.0 架构在很多场景下的表现并不理想。同时,随着 LLM 大模型能力的不断提升,依赖于 Proposal + Plan 的固定 Workflow 方式,反而可能限制了大模型的发挥。
Trae Agent 2.0:重塑 AI 协作新模式
因此,在 2025 年 4 月 8 日,我们经过 21 天的闭关开发,推出了 Agent 2.0 架构。此版本赋予了 LLM 更大的自主能力,使其能够主动理解需求,感知周围环境,并驱使工具执行任务及获取反馈,从而极大地提升了 LLM 的性能。

与此同时,我们对各类工具进行了专项改进。例如,我们提高了 File 工具的代码合并成功率,并将代码召回的功能抽象为 Search Codebase 工具,供 AI 根据需要调用,同时实现了语义化的多路召回功能。
与 AI 的博弈过程充满挑战,分享一个 PUA 的实例:
- 背景:我们的目标是让 AI 在不降低效果的前提下,以更少的轮次完成任务。
- 方法:通过 PUA 策略,告诉它仅有 N 轮机会,以激发其紧迫感。
- 结果:在 claude 3.5 中表现良好,线上数据表明轮次明显减少。
- 意外:然而在 claude 3.7 中,AI 却变得懒散,经过分析发现,3.7 的性格更加散漫,当它意识到完成任务的机会有限时,竟然选择放弃,需我们施加推动力才能激发其工作。最终,我们花费了相当多的时间来了解它的个性,以解决这个问题。
Trae Agent 3.0
Agentic 与 Workflow 并非简单的开关,而是一个连续的光谱。我们的架构旨在提供可持续的迭代能力,在 LLM 能力足够强大的地方实现更高的自主性,而在 LLM 尚不擅长的领域,通过固定的编排来固化专家经验,随着模型的升级,可以低成本地更换节点以实现逻辑更新。
【付费内容,投简历后可读】
【付费内容,投简历后可读,后端:https://job.toutiao.com/s/5IEbI9PKBco】
【付费内容,投简历后可读,前端:https://job.toutiao.com/s/mMPAHQSoPFA】
【付费内容,投简历后可读】
Trae SOLO 模式
随着 Trae 的不断发展,我们逐渐意识到 AI 与 IDE 之间的主导关系正在发生逆转:
- 过去是程序员在 IDE 中编写代码,AI 负责辅助。
- 现在则更像是 AI 主导了编码过程,而 IDE、浏览器、终端等只是其工具。
因此,我们探索了 SOLO 模式,希望将协作方式从“AI 辅助 IDE”升级为“AI 主导 IDE”。在 SOLO 中,AI 可以使用内置编辑器、浏览器等多种工具,未来 SOLO 还将整合更多的工具。
此次发布的 2.0 版本提供了:
- 一种以 AI 为中心的交互模式 SOLO。
- 内置了针对 Web APP 场景的端到端交付 Agent,日后还会添加更多 Agent。
目前仍处于预览打磨阶段,具有很大的优化空间,欢迎大家使用并提供反馈。

以下是我们一些邀请测试用户所取得的成果:



SOLO 制作的任务看板 https://www.zhihu.com/video/1930971734917505941
⬆️ @徐飞制作的任务看板:https://traekanbanqnwk-lfne48lzn-xufeis-projects.vercel.app
目前海外版已发布,传送门:https://www.trae.ai,由于资源有限,我们仍在进行定向邀测,大家可关注官方 Twitter 或飞书群的技术运营同事的通知,我这边也没有 solo 代码 。
传送门:关于 TRAE SOLO Code 后续发放方式的说明
与 AI 实习生的有效协作
我对 AI 的理解始终是:每个人都应拥有的高潜力实习生。
当下,许多人对 AI 编程的看法各异,有些人感到震撼,也有些人认为其毫无价值,这实际上是因为未能掌握与不同阶段实习生相处的方式,未能妥善管理自己的期望,短期内高估,长期则低估。
我认为,AI 是每个人的专属高潜实习生。对于当下的 AI 实习生,应该为其分配适合的任务,提供必要的指导和信息输入,并随时准备帮助它,随时接手,就像对待一个真正的实习生一样,这并没有太大区别,我们要么没用好,要么没雇对。
- 甩手掌柜 → 不提供充分的上下文,仅凭一句话的需求就期待 AI 完成正式项目。
- 给予超出能力范围的任务 → 它是编写代码的 AI,你希望它生成不适合的内容。不同模型有不同的能力。
- 招聘标准过低 → 想让 claude 4 完成的任务,却只使用 openai 3.5 的免费版。
- 一分价钱一分货 → 以 20 美元的月费期望实现 2000 美元的 token 产出。
观察社区中不同人对 AI 编程的评价,实际上也能反映出他们如何带领实习生的方式:
- 有些人会细致入微地拆解任务,提供信息,严格控制,要求我全力以赴。
- 有些人会适当放权,仅提供必要的信息输入,并随时准备支援。
- 有些人缺乏耐心,一遇问题便发火,随后干脆放任自流,只丢一些琐碎的任务过去。
总结与招募
我记得在项目初期,TL 曾告诉我们:“我们有意愿、有能力、有机会、有想法、有支持,我坚信我们能创造出一款世界级的产品。”当时我将其视为“愿景”。然而,当我在 2024 年底的总结中看到 MarsCode 的技术指标,2025 年中看到 Trae 的月活跃用户突破百万,看到团队积累的一系列见解,我突然意识到,我们确实在踏实前行,正在这条路上不断奔跑,我由衷地相信这一点。
秉持“预研一代、部署一代、分享一代”的理念,我们正在落地 Trae Agent 3.0 架构,以支持多 Agent 和远程 Agent 等探索。
前路漫漫,AI 编程之路仍在探索中,相较于行业内一些先行者,我们还有许多需要学习的地方,但请相信,我们对此充满热情。
专业生产力工具的颠覆性创新必将重塑开发者的认知与开发方式,未来的 IDE 形式或将不再是以代码为中心的当前模式,这种变化很可能会在三年内实现。我们每个人都应学会如何与 AI 进行有效合作。
最后,我们团队虽小,但充满干劲,欢迎各位加入 Trae 团队,杭州、北京、上海、广州、深圳均有办公基地,诚邀前端、后端、AI 等各类人才加盟。

