共计 6785 个字符,预计需要花费 17 分钟才能阅读完成。
字节跳动的 AI 编程助手 Trae 正式推出了 2.0 版本,并逐步开放使用权限。此版本引入了 SOLO 模式,这是一个具备上下文工程能力的系统,能够根据全面的信息进行任务规划与执行,支持从代码编写到功能交付的完整开发流程。
SOLO 是一种上下文工程师,它能独立生成软件,替代人类处理开发流程中重复性和琐碎的环节。
SOLO 模式标志着从“AI 辅助”向“AI 主导”的重要转变。与传统需要人工干预的智能体或代码补全工具不同,SOLO 能在充分理解需求的基础上,主动调度工具以完成复杂的开发任务。目前,该系统已支持 Web 应用的全流程交付,未来还将拓展更多应用场景。
我们已经看到许多开发者获得了内测资格,大家对 SOLO 模式的实际体验如何呢?
感谢邀请,涉及利益:Trae 的核心开发者。转眼间我在这个领域已摸索半年,今天想畅所欲言,聊聊《重生之我在大厂搞 AI Coding》
简而言之,多图分享~
重生之我在大厂搞 AI Coding
时间线其实很简单:
- 2022 年 11 月 15 日,突如其来的蚂蚁大礼包让我不得不重新思考未来的规划,幸运的是,我随即加入了字节。
- 2023 年 11 月 15 日,我接到一个电话,被召集到杭州的闭关室,从此负责 MarsCode Cloud IDE 团队的云工作区等事务,那是一年疯狂的奔跑。
- 2024 年 11 月 15 日,再次进入闭关室,又是疯狂的半年,于是逐渐形成了大家看到的 Trae 1.0 和 2.0 的演进。
我常跟朋友开玩笑说,11.15 是我的受难日,重生之我在大厂搞 AI Coding。今年的 11 月 15 日又会有什么新变化呢?我不知道,但我很期待。
不知不觉已经过去了半年,定坤在上个月的火山引擎 Force 大会的主题演讲《聊聊 Al Coding》时,分享了 Trae 的月活跃用户已突破百万,我们也算是阶段性交出了一份答卷。


从 MarsCode 到 Trae
熟悉我们的人应该了解,2024 年我们发布了多个与 Cloud IDE 相关的产品,包括 MarsCode Cloud IDE、Coze IDE、掘金 AI 刷题等,字节内部的 Cloud IDE 也在我们的服务范围之内,用户覆盖率相当高。
首先需要澄清一个概念,Cloud IDE 不等同于 Web IDE,从我的角度看,IDE 可分为前端交互层和业务逻辑层:
- 前端交互层可以在浏览器中运行,也可以在本地 Electron 中运行,既可以是完整版,也可以是轻量版。
- 业务逻辑层可以在用户本地运行,也可以在远程 K8S 容器中运行,甚至可以在浏览器的 WebContainer 中运行。
Cloud 意味着 Code Anywhere,上述的交互层和逻辑层可以自由组合,既可以在同一台机器上运行,也可以通过 SSH Remote 分开连接,甚至可以通过 iPad 进行使用。这是我对 Cloud IDE 的理解。
Cloud IDE 的远程容器,我们称之为云工作区,其技术挑战相当巨大:
- 常见的微服务通常是非实时的,并且无状态,可以实现负载均衡,当容量不足时可逐步扩容;
- FaaS 服务是实时调度的,但也是无状态,因此可以提前进行预热;
- Cloud IDE 是 实时调度 + 有状态,每个项目对应一个容器,具有磁盘数据依赖,对启动速度极为敏感,用户打开时必须等待初始化和加载才能使用,由于涉及磁盘代码数据,因此是有状态的,无法进行负载均衡,也很难提前预热。
在 2024 年,我们在这方面投入了大量精力进行优化,不仅大幅提升了 VSCode 的 Rust 化,还深入定制了 K8S 层面,最终在性能、成本、稳定性等方面取得了显著成果,我们的端到端启动性能 P90 达到了 5 秒,而 GitHub Codespace 需要 30 秒,Google IDX 则需要 1 分钟,在这一指标上我们达到了世界级水平。
MarsCode 启动速度 https://www.zhihu.com/video/1930983846276466605

当然,技术的成功并不一定意味着业务的成功,在很多情况下需要在合适时机选择正确的路径。尽管 Cloud IDE 在字节内部的覆盖率很高,但作为 2C 产品的 MarsCode 天然受到用户场景的制约,因为国内企业的代码难以上云,而程序员的副项目又不足以支撑产品的健康发展。
因此,在 2024 年 11 月 15 日,我们决定回到半山坡,选择通过 Native IDE 这条道路重新向 AI Coding 的高峰攀登。当然,我依然坚信 Cloud IDE 的价值,它会以云端一体的形式与我们重聚,殊途同归,一个也不能少。果不其然,在 2025 年中,业界也开始关注 Remote Agent 场景,而我们在这一领域有着足够的积累,随时可以发力。

我对 AI Coding 的认知
之前在播客中也讨论过:《探秘 AI IDE,对话字节 Trae & 迪魔王 Devmore》
LLM 大模型的核心在于预测下一个字符,相较于复杂的自然语言,编程语言更为简洁、严谨且可预测,因此 AI Coding 领域成为这一波浪潮中的首个 PMF 产品。在这一领域的实践不断推陈出新,几乎每月都在刷新我们的认知。

从我的观察来看,AI 编程的进展可以与自动驾驶技术进行类比,它分为几个发展阶段:AI 辅助编程 → AI 结对编程 → AI 自主编程。目前,我们的 Trae Builder、Cursor Composer 和 Windsurf Cascade 等工具,正是专注于 AI 结对编程这一阶段。

AI 辅助编程
代码补全
在早期阶段,编写代码时,我们主要依赖于代码提示,通常通过“下拉列表”来选择所需对象的方法和属性。
随着 ChatGPT 的问世,我们逐渐认识到大型语言模型的核心在于预测下一个字符。与复杂的自然语言相比,编程语言更为简洁、严谨且易于预测,因此,我们很快见证了 Copilot 的成功推出。它在代码补全方面实现了巨大的创新,令人惊叹的 Ghost Text 交互模式,让程序员仅需按下一个 Tab 键就能迅速采纳建议,为他们带来了强烈的愉悦感。

然而,这种补全方式仅限于新代码的插入。因此,Codeium 和 Cursor 随之推出了 Super Completion(也称为 Tab Tab)技术。例如,在一个前端地区的下拉列表中,最初是英文,后续改为中文。如果你修改了第一行的某个字段,再按一次 Tab,就能一键更新下方所有字段。最近,我们也推出了 Trae Cue 超级代码补全功能。
从“代码提示”到“代码补全”,再到“超级补全”,这一过程展现了 AI 编程能力的飞跃。

代码生成
接下来我们讨论“代码生成”。在 ChatGPT 刚推出时,它对程序员的震撼之一就是能够进行对话式的生成。然而,这一过程需要在 Chatbot 中进行手动对话,然后再将生成的内容复制回 IDE,显得非常繁琐。
那么,是否可以在 IDE 内直接与 AI 对话呢?因此,我们开始在 IDE 中引入 SideChat 插件,例如 Copilot Chat 和 Codeium。其优势在于能够直接获取 IDE 和代码库的上下文,省去了繁琐的手动复制过程。

虽然看似复杂,其实其原理相当简单。例如,当你对 AI 说“帮我实现这个 HTTP 请求函数”时,系统实际上在拼凑一段话:“用户正在打开 xx 文件,光标位于 xx 行,该行的函数名和注释是 xxx,他最近访问过 a、b、c 文件,当前项目的目录结构是 xxx,现在他要求在这个位置实现 HTTP 请求逻辑。”随后这段话被传送给 LLM 进行代码生成,最后再进行代码合并。这样一来,与手动对话 ChatGPT 的差别不大,IDE 只是为你整理好了相关上下文。
这里涉及的技术要素包括:项目理解能力、上下文裁剪、模型能力以及工程上的 PE 能力。Cursor 在这些方面表现出色,脱颖而出。Claude Sonnet 3.5 在其中发挥了重要作用,它的问世标志着模型能力达到了一个新的里程碑,从而引发了去年一波热潮。
在此阶段,开发者可以直接在 IDE 中与 AI 共享上下文,无需繁琐的转述。接下来需要解决的问题是生成后的代码如何实现自动合并,而不需要手动将其复制到各个文件中。这就是 Fast Apply 代码合并 的应用场景。
简单而言,就是如何让 AI 生成合适的代码,并自动合并到相应的位置。实现方式多样,包括全文重写、代码片段替换以及 Diff 合并等,业界对此有多种实践,Cursor 则训练了一个专门的 Fast Apply 小模型,而我们 Trae 则支持多种方式。

以上提到的两种能力,构成了我所称的 AI 辅助编程阶段。
AI 结对编程
AI Agent 的定义
随着 AI 能力不断增强,用户的需求也愈发复杂。我们期望 AI 能具备更多的自主性,仿佛是一个潜力巨大的实习生与我们一起进行结对编程,这被称为 AI Agent。
那么,一个典型的 Agent 是如何运作的呢?Manus 最近的一篇文章中提到:
『在接受用户输入后,Agent 通过一系列工具来完成任务。在每次迭代中,模型根据当前上下文选择预定义动作空间中的一个动作,然后执行该动作以产生观察结果。动作和观察结果被附加到上下文中,形成下一次迭代的输入,这个循环持续到任务完成。』
简而言之,Agent 的核心在于:AI 具备 思考能力 、 调度能力 、 上下文环境感知能力 和工具调用能力。它可以感知所处环境,并根据接收到的目标进行思考,将任务拆解成子任务,调度工具以完成这些任务。

小提示:如果在使用 Trae 时发现需要手动“应用”,请务必检查 Chat 对话框中是否缺少 @builder。我们下次会做进一步优化!
Trae Agent 1.0
Trae Agent 于 2024 年 12 月 17 日立项,经过 20 天的努力,推出了大家所见的 Trae 1.0 版本。

在 Agent 1.0 的架构中,由于当时大模型的能力还不够强大,流程更多依赖于工作流,即思考 → 规划 → 执行 → 观察的循环。这一过程在 Trae IDE 环境中进行,借助 IDE 的功能采集信息、构建上下文,并利用大语言模型进行思考和规划。同时,依靠 IDE 提供的文件操作及命令行操作等功能来完成编码需求。

除了 Agent 的流程外,还有代码知识图谱(代码召回)、Fast Apply 代码合并等功能。
顺便说一句,有时在社区看到有人说 AI IDE 只是 LLM 的外壳,真是让人无奈,似乎连基本的领域认知都没有。
Trae Agent 2.0
随着大量用户的反馈,我们收到了许多关于 1.0 架构的批评,发现其在许多场景下表现不尽如人意。与此同时,随着 LLM 大模型能力的持续提升,单纯依赖于 Proposal + Plan 的固定工作流方式,实际上限制了大模型的发挥。
发布 Agent 2.0 架构:推动 LLM 自主发展的新里程碑
在 2025 年 4 月 8 日,我们经历了 21 天的深度研发,推出了 Agent 2.0 架构。通过赋予 LLM 更大的自由度,让其自主理解需求、感知环境,以及推动工具的使用与反馈获取,从而极大地提升了 LLM 的潜能。

与此同时,我们对各类工具进行了专项优化。例如,File 工具的代码合并成功率得到了提升,代码召回被抽象为 Search Codebase 工具,以便 AI 按需调用,并且支持语义化的多路召回。
与 AI 进行智力较量的过程,往往是极具挑战性的,分享一个 PUA 的案例:
Trae Agent 3.0
Agentic 与 Workflow 之间并非简单的二元选择,而是一个连贯的光谱。我们的架构需要具备持续迭代的能力,以便在 LLM 能力日益增强的领域实现更高的自主性,而在 LLM 尚未完全掌握的领域,则通过固定流程来固化专家经验,随着模型的演变,能够低成本地更换节点以实现逻辑的调整。
【付费内容,投简历后可读】
【付费内容,投简历后可读,后端:https://job.toutiao.com/s/5IEbI9PKBco】
【付费内容,投简历后可读,前端:https://job.toutiao.com/s/mMPAHQSoPFA】
【付费内容,投简历后可读】
Trae SOLO 模式
随着 Trae 的不断发展,我们逐渐意识到 AI 与 IDE 之间的主导关系正在发生变化:
- 过去是程序员在 IDE 中进行代码编写,AI 扮演辅助角色。
- 而现在,AI 更像是主导编码的主体,IDE、浏览器、终端等则成为它的工具。
因此,我们探索了 SOLO 模式,旨在提升从“AI 辅助 IDE”到“AI 主导 IDE”的新型协作模式。在 SOLO 中,AI 可以利用内置的编辑器、浏览器等多种工具,未来还将整合更多工具。
此次发布的 2.0 版本,主要提供了以下内容:
- SOLO 这种以 AI 为核心的交互模式。
- 内置了一个针对 Web APP 场景的端到端交付 Agent,未来还将推出更多 Agent。
目前该版本仍在预览和完善阶段,欢迎大家使用并提供反馈。

以下是一些参与测试的用户所取得的成果:



⬆️ @徐飞 的任务看板:https://traekanbanqnwk-lfne48lzn-xufeis-projects.vercel.app
目前海外版本已发布,传送门:https://www.trae.ai,由于资源有限,我们仍在进行定向测试,大家可关注官方 Twitter 或 飞书群技术运营同事的消息,我这边也没有 solo code 。
传送门:关于 TRAE SOLO Code 后续发放方式的说明
如何与 AI 实习生有效合作?
我始终认为 AI 是:每个人都能拥有的高潜力实习生。
如今,许多人对 AI 编程表示惊讶,也有人认为其效果不佳,其实这主要是因为没有找到与不同阶段实习生的相处之道,没能合理管理自己的期望,导致 短期内高估,长期却低估。
我的看法是:AI 实习生是每个人的专属高潜力助手。对于现在的 AI 实习生,应该合理安排任务,提供适当的指导和信息输入,并随时准备接手,就像对待真实实习生一样,要么是没用好,要么是没雇好。
- 甩手掌柜 → 不提供充分的上下文,仅凭一句话期望 AI 完成复杂项目。
- 超出能力范围的要求 → 它的专业是编程,期望它生成不当内容显然不切实际。不同模型也有不同的使用方式。
- 招聘标准过低 → 希望实现 claude 4 的功能,却只愿意使用 openai 3.5 免费版。
- 一分价钱一分货 → 期望 $20 的月费能实现 $2000 的 token 使用效果。
在社区观察不同人对 AI 编程的看法也颇有趣,这反映了他们如何带领实习生和新人的方式:
- 一些人会事无巨细地拆解任务,强制指挥,要求我专心工作,不要多说。
- 另一些人则适度放权,仅提供必要的信息输入,但会随时准备接手。
- 还有些人缺乏耐心,遇到问题便大发雷霆,随后自己动手,只丢下一些琐碎的任务。
结束语 & 邀请加入我们的团队
记得刚立项时,TL 曾告诉我们:“我们有意愿、有能力、有机会、有想法、有支持,我坚信我们能打造出一款世界级产品。”,当时我将其视为“愿景”。但当我在 2024 年底回顾 MarsCode 的技术指标,2025 年中看到 Trae 的百万月活数据,以及团队不断积累的见解时,我突然意识到,我们确实在踏实地朝着这个目标前进,我由衷地相信这一点。
秉持“预研一代、部署一代、分享一代”的理念,我们正在落地 Trae Agent 3.0 架构,以支持 Multi Agent 和 Remote Agent 等探索。
前路漫长,任重道远,AI 编程的旅程仍在摸索中,与行业中的许多先行者相比,我们还有很多需要学习的地方,但请相信我们在认真对待这项工作。
专业生产力工具的颠覆性创新,将重新定义开发者的认知与开发方式,未来的 IDE 可能不再是当前以“代码为中心”的形态,这一变化有可能在三年内实现。我们每个人都需要学习如何与 AI 进行有效合作。
最后,我们团队虽小但充满干劲,欢迎大家加入 Trae 团队,杭州、北京、上海、广州、深圳均有基地,现招聘前端、后端、AI 等各类人才。

