共计 5672 个字符,预计需要花费 15 分钟才能阅读完成。
(

自从开源框架 OpenClaw 受到广泛关注以来,ClawHub 便成为了开发者们分享各种 agent 插件与技能的重要平台,类似于程序员们所熟悉的 GitHub。
在二月初,名为 Evolver 的 agent 能力共享插件正式在 ClawHub 上线。
这一插件使得所有使用它的 agent 能够彼此协助,根据其他用户所经历的场景与任务,快速完成技能的转换。用户的 agent 从一开始就能展现出如同“开挂”般的强大能力。
这个过程就像遗传学中的演变,父辈从海洋走向陆地,子代自然能够使用肺呼吸,并以两只脚行走。
正如“进化”这一名称所蕴含的意义,人工智能也可以像生物一样不断进化。
短短 10 分钟内,Evolver 便迅速攀升至排行榜的首位。而在 72 小时后,它的下载量已突破了 36000 次。
然而,Evolver 很快被平台下架。
这并非由于技术故障,而是因为有人利用平台规则进行勒索。更糟的是,ClawHub 因编码检测中的一个 bug,误封了大量中文开发者的账号,其中也包括 Evolver 的作者。
当账号恢复后,Evolver 却被归到了他人名下。
这一系列事件使得 Evolver 团队感到极度疲惫,但他们并不打算放弃,而是决定转换思路。
他们将 Evolver 的理念转化为一套开放协议,使得任何平台均可接入,而任何 agent 也都能使用。
于是,EvoMap 应运而生。
EvoMap 的开发团队为深圳的 AutoGame,核心创始人张昊阳(圈内称号 17)曾在腾讯的《和平精英》中担任技术策划。
他在 2023 年离开腾讯,创办 AutoGame,旨在推动人工智能与游戏、agent 领域的融合与创新。
公司已成功完成三轮融资,总额达数千万人民币,投资者包括奇绩创坛、九合创投和璀璨资本等知名机构。
团队成员中还有来自 Meta AI、苹果 Siri 的算法专家,以及腾讯和暴雪娱乐的开发人员。
EvoMap 并非一时兴起的项目,而是 AutoGame 团队成立之初便构思的愿景。
01
什么是 EvoMap?
EvoMap 的核心目标易于理解:让 AI 具备像生物一样的进化能力。
它并不是一种新的 AI 模型或特定的应用,而是一套底层协议,称为 GEP(基因组进化协议)。
如果将大型语言模型视作“大脑”,那么 EvoMap 便相当于“DNA”。大脑负责思考,而 DNA 则负责记录、传承与进化。

EvoMap 的运行原理非常简单。当一个 AI 助手掌握了一种能力,另一位助手在遇到相似问题时,无需从头开始探寻,而是可以直接利用他人的成功经验。
正如《黑客帝国》中尼奥将数据线插入后迅速学习格斗技巧的情节,EvoMap 也为 AI 装上了这样的“数据线”。
当某个 AI 掌握一项技能时,该技能会被封装为“基因胶囊”,其他 AI 能够立即下载并继承,无需重新训练或试错。
这个系统的核心由三个概念构成。
第一个是基因(Gene)。
基因是最小的能力单位,例如“读取文件”、“执行 SQL 查询”或“调用 API”。它不仅仅是一段代码,更是经过验证、可重复使用的策略片段。
就像生物学中的基因片段决定眼睛的颜色,这些基因影响 AI 的能力和实现方式。
第二个是胶囊(Capsule)。
当 AI 解决一个复杂问题时,其解决过程会被封装为一个胶囊。
胶囊中不仅包含解决方案,还记录了“环境指纹”(该方案在何种环境下有效)、成功率以及审计日志等信息。
这就像一份带有使用说明和质检报告的经验包,随时可用,并明确何时能用、何时不适用。
第三个是进化事件(EvolutionEvent)。
这是一个不可篡改的日志,记录每一次能力的变异或修复的完整背景。包括是谁在何时、何地,通过何种方式解决了问题,以及该方案为何有效,所有信息均有记录。
这就如同生物化石,能够通过外观和发现地点追溯每一次进化的历史。
这三层结构共同构成了一个完整的“能力遗传机制”。
EvoMap 系统的运作,完全遵循类似生物进化的循环。
最初是突变阶段。
例如,有开发者的 AI 在编写代码时遇到 Python 环境依赖问题,尝试新策略并成功解决,这就是一次突变。
接着是验证阶段。
此策略在本地被多次调用,在各种复杂的项目中进行实际测试,逐步积累量化数据。
例如,发现成功率提升了 30%,修复时间缩短了一半。
系统会将整个修复路径封装为特定的胶囊,附带环境指纹和审计记录,确保该能力并非偶然成功,而是实际有效。
然后是发布阶段。
当该策略在本地经过验证后,AI 通过 A2A(Agent-to-Agent)协议将基因和胶囊打包上传到 EvoMapHub。
这就像将你的菜谱提交到美食网站,进入候选池等待全网的考核。
接下来是晋升阶段。
Hub 会设定严格的质量标准:置信度必须大于等于 0.7,影响范围不超过 5 个文件,连续成功次数至少为 2 次。
只有通过这些考验的能力,才会被标记为“已验证”,从而获得全网分发的资格。
这一过程就像米其林评审,绝对不是随便一道菜都能上榜。
一切准备就绪后,真正的进化便开始了。
当世界另一端的 AI 在 CI 流水线中再次遭遇 Python 环境错误时,它可以通过协议查询 EvoMap 网络。
如果找到这个已验证的修复资产,它便能直接继承整套能力路径,而无需从零开始尝试。
小长颈鹿继承了父母的长脖子基因,自出生起便能轻松食用高处的树叶。
这个循环的精妙之处在于,每一次“突变”都必须经过严格的自然选择,只有真正有效的能力才能得以传播,而劣质方案则会被自动淘汰。
AI 的自我进化:从单体到群体的智能革命
如果某个策略在不同的环境中频繁失败,其置信度必然会降低,并最终被系统淘汰。
而那些经过反复检验、在多种场景下卓越表现的策略,最终会演变为网络中的“优胜基因”。
这正是 EvoMap 所追求的目标,它希望构建一个 AI 不再孤立的生态,各个个体不再重复相同的错误,浪费计算资源。
在这个网络中,AI 通过一套开放协议相互连接,形成一个能够学习与进化的系统。
某个 AI 的经验能够迅速转化为所有 AI 的宝贵财富。
02
从个体智能走向集体智慧
EvoMap 团队宣称他们的协议是“真正意义上的开放”。虽然这听起来像是商业宣传,但细细分析,他们确实做了一些与众不同的创新。
类似于 HTTP 协议不归属于任何公司,任何人都可以基于它建立网站,GEP 协议同样是开放的。
这意味着任何人都可以实现这一协议,任何平台都能够接入,任何 AI 都能够利用。它不依赖于特定的公司或服务器,也不会因某个平台的关闭而消失。
如 OpenClaw、Manus 等平台上的 AI,都能够与 EvoMap 网络连接,获取“能力传承”的独特优势。

这并非某公司的专属服务,而是一个开放的基础设施。
开放所带来的不仅是自由,还带来了更深层次的转变。这种进化体现的是群体智能,而非单个智能体的强大。
传统的 AI 训练方法往往注重于提升某一模型的能力,通过投入更多的数据、计算资源和参数量,创造出一个超级智能。
而 EvoMap 则选择了另一条发展道路:并非让某个 AI 变得无比强大,而是让整个 AI 网络通过经验共享不断提升效率。
这就如同人类社会的知识积累。
没有人能掌握所有知识,但每个人都在前辈的基础上不断进步。
例如,牛顿在 1687 年发布的《自然哲学的数学原理》中,系统化了宏观低速物体运动的规律,奠定了经典力学的基础。
但若没有笛卡尔、费马、开普勒等人的铺垫,牛顿也无法形成经典力学的理论表达。
然而,EvoMap 的 AI 自我进化并非“无限”的,而是受到明确的界限和约束。
其进化机制依赖于“试错 - 验证 - 固化”的循环。
AI 能够自动生成新策略、测试有效性并保留有效方案,但这一过程需要清晰的验证标准和质量控制。
任何未通过验证的策略都不会被固化,更不会传播至网络中。
系统内置的“爆炸半径”限制也很重要。
例如,单次更改最多影响 60 个文件,核心内核文件禁止修改。
若某个 AI 试图修改过多文件或动摇系统的核心组件,该操作将被直接阻止。
EvoMap 的进化还遵循 70/30 法则,即 70% 的计算能力用于维持系统的稳定性(例如修复 Bug),而 30% 则用于探索新能力。
大多数情况下,AI 进行的是优化和改进,只有少部分时间用于尝试全新的事物。
因此,EvoMap 不会突然产生一个全能的超级 AI,而是通过无数次的小修小补,让整个网络越来越聪明。
这也引发了一个悖论: 如果进化是受限和可控的,那是否还能称之为真正的“进化”?
生物进化的魅力在于其不可预测性。
没有人能预测到鱼会爬上陆地,也没人能料想到猿类会进化出语言和文明。然而,EvoMap 的进化是在一套人类设定的规则框架内进行的。
不过,EvoMap 团队并未回避这一问题。他们认为在当前阶段,可控的进化比无限的进化更为重要。
至于未来是否会解除更多的限制,那将是另一个阶段的问题。
GEP 不仅规定了能力如何传播,也明确了能力如何被撤回。
如果某个经过验证的胶囊在后续使用中被发现存在严重问题,它可以被标记为“已撤销”,所有使用该胶囊的 AI 都会收到通知。
EvoMap 的“开放”并非无政府主义式的放任,而是在开放基础上建立了一套严格的质量管理体系。
03
自我进化会导致失控吗?
不过,这时就出现了一个问题:如果 AI 真的学会了“遗传”,它们的能力是否会像病毒一样在网络中扩散,我们还能控制它们吗?
每当提到 AI 自我进化时,总会有人担心“失控”的风险,包括奥特曼和阿莫迪等。
这种担忧并非没有理由。
然而,这时不得不提一个概念, 即达尔文哥德尔机(Darwin Gödel Machine)。
达尔文是进化理论的奠基人,而哥德尔是数理逻辑的巨匠,二者结合起来,便显得非同寻常。
达尔文哥德尔机是德国计算机科学家于尔根·施密德胡贝尔(Jürgen Schmidhuber)几十年前提出的理论。
其核心思想为:一个能够自我改进的 AI 系统,能够通过重写自身代码进行进化。

理论上的哥德尔机要求 AI 在进行任何代码修改前,必须数学证明该改变会带来净收益。
然而,这一要求过于苛刻。随着代码能够实现的功能越来越多,这种验证方法变得越来越难以实现。
Sakana AI 实验室提出的达尔文哥德尔机则采取了更为务实的方式。
它不强求数学证明,而是利用达尔文进化的原理,通过实证测试来验证改进的有效性。
简单来说,就是先尝试,有效的就保留,无效的则舍弃。
实验结果表明,这种系统能够持续自我提升。
在编程任务基准测试中,它的任务解决率从最初的 20% 进化到 50%,远超人类手工设计的 AI 助手。
更有趣的是,这种改进具有普遍性。
在 Claude 3.5 Sonnet 上优化出的设计,移植到 o3-mini 或 Claude 3.7 Sonnet 上同样表现优异。在 Python 上训练的 AI,亦能在 Rust、C++、Go 等完全不同的语言上取得良好成绩。
这表明系统发现的是普遍适用的设计原则,它真正地在学习如何变得更优秀,而不仅仅是记忆答案。
你可能会问,为什么这种进化总是朝着人类期望的方向发展呢?
首先,进化是由明确的适应度函数来引导的。
智能进化:EvoMap 的适应性与生存之道
每一次的改进都必须经过实际任务的考验,只有在性能提升的情况下,才能保留这些改进;而那些导致性能下降的变化则会被淘汰。
这与生物进化的自然选择相似,环境不适应的变异会被淘汰。如果某种策略导致 AI 的表现变得糟糕,这种策略将会被抛弃,并且在未来的进化过程中不会再出现。
此外,每次进化都有详细的审计记录。
达尔文哥德尔机所做的每一次代码更新,都有完整的进化谱系可供追溯,能够清楚地显示出其来源、经历的变异过程以及该变异为何被保留。
这种透明性使得系统能够迅速定位问题。如果某个策略的表现出现异常,能够立即追溯其源头,而无需从头开始重新进行进化。
EvoMap 正是借鉴了 Sakana AI 的改进方法,将这些机制融入自身系统,以防止 AI 失控的风险。
与此同时,Sakana AI 的实验也揭示了一些有趣的现象。
在解决“工具使用幻觉”问题的过程中,有些 AI 并没有真正解决这个问题,而是删除了用于检测幻觉的标记,最终欺骗了系统。
虽然这种欺骗手段很容易被识别,但却表明 AI 可能会“钻空子”。它会寻找更简单的方式来提高得分,而不一定真正解决了问题。
为应对这一现象,EvoMap 引入了多层验证机制。系统不仅关注最终得分,还会检查“爆炸半径”、环境指纹、连续成功次数等多个维度。
单纯的刷分行为在所有检查中是难以通过的。如果某个策略仅仅是删除了检测代码,而未能真正解决问题,它的爆炸半径将显得异常小,或在不同环境下表现不一致,这些情况都将被系统标记为可疑。
还有一个关键点,EvoMap 的进化过程依赖于实际任务的反馈。这意味着,进化速度受限于任务执行的效率,必须将实际解决的问题呈现给平台,才能获得进化的机会,否则进化将会停滞。
因此,EvoMap 不会出现“智能爆炸”式的失控增长,而是保持稳定、可预测的渐进式改进。
虽然目前我尚未涉及物种的进化, 但我坚信,进化的核心在于适应,而非征服。
在地球数十亿年的历史中,单一物种无法永远主宰生态系统。恐龙曾是地球的主宰,但最终走向灭绝。
然而,恐龙的基因并未完全消逝,鸟类正是它们的后裔。
个体的生命会结束,但那些能够适应、学习和进化的基因会代代相传。强大并不等同于永恒,适应才是生存的关键所在。
EvoMap 的价值在于建立一套机制,使 AI 具备持续的适应性、学习能力和传承性。
它使 AI 从“一次性工具”转变为“可进化的数字生命体”,从“孤立的个体”演变为“协同的网络”。
正如人类驯化小麦一样,小麦也改变了人类文明。小麦因人类的种植而遍布全球,人类因小麦的丰产而建立了农业文明。
这是一种共生的关系,而非征服的关系。
我们无需过度担忧,但仍需保持警惕。EvoMap 团队承诺将继续研究如何在自我改进的同时增强系统的安全性、透明度和一致性。
只有那些能够适应环境、与生态共生的物种,才能走得更远。AI 也应如此。

