越用越强不是广告语:拆解 Hermes Agent 的三层学习机制

张开发
2026/4/13 12:39:52 15 分钟阅读

分享文章

越用越强不是广告语:拆解 Hermes Agent 的三层学习机制
用 AI agent 有一段时间了有个问题一直没解决每次开新会话它对我的项目和习惯还是一无所知。上下文配置文件里写了不少但写进去的是静态的——它不会自己学也不会根据我真实的操作习惯去调整。跑得熟不熟完全取决于我自己有没有空去维护那份文件。Hermes Agent 是 Nous Research 今年二月发布的开源代理框架MIT 协议主打的就是解决这个问题——让 agent 从使用中自己学不靠你手动补。这篇主要拆它三层学习机制怎么运转以及和 OpenClaw 的根本差在哪里。安装部分只带过一下够跑通就行。大多数 AI 工具的默认状态关掉就清零这个问题不是哪个产品偷懒是大部分 agent 框架的底层架构就这么设计的。收到任务 → 规划 → 执行 → 返回结果会话结束什么都不留。下一个任务从同一个零点开始。OpenClaw 有跨会话的 context 配置可以手动写进去固定背景但那些是静态文本——不会自己更新也不认识你真实的操作习惯。Hermes 的记忆不是你填写的那份系统提示词是它自己从跑过的任务里建出来的。这两者差很远。Hermes 的设计记忆、技能、执行三层分开先把架构铺平不然后面的机制很容易混在一起。记忆层负责记住谁是谁、现在在哪、你喜欢怎么做事。两个核心文件MEMORY.md存环境和工作流的客观事实服务器配置、常用部署路径、项目规范容量 2200 字符USER.md存关于你这个人的行为档案容量 1375 字符。USER.md追踪的不是你说了什么而是你怎么做事任务偏好你偏好什么输出格式和结构决策历史你过去在类似情况下怎么决策任务模式你常跑哪类任务、在什么上下文里跑反馈信号你连续几次不改就直接采纳输出agent 把这个当成你认可的信号反复纠正就说明它跑偏了每次新会话启动这两个文件作为冻结快照注入——会话中途的变更实时写盘但要等下次开新会话才能看到效果。这样做是为了不破坏 prefix cache。这两个文件跨会话持久保存也支持接入 Mem0、Honcho 等 8 种外部记忆提供商。接了 Mem0 之后你发下一条消息之前上一轮预取好的记忆已经注入上下文了零延迟对话结束后后台线程自动把内容发给 Mem0 抽取事实不需要你告诉它该记什么。本地那套还在Mem0 是叠在上面的不是替换。技能层负责把做过的事变成可复用程序。这是 Hermes 和其他框架差得最远的地方下一节单独拆。执行层ReAct 循环观察读终端输出或文件内容→ 推理对照目标分析当前状态→ 行动执行命令或调用工具。驱动这个循环的是 Hermes-3 模型基于 Llama 3.1Nous Research 自家的 Atropos 做了专项微调重点针对工具调用精度和多步规划——跑长任务不容易迷路。Atropos 不只是训练底层模型用的——框架里还内置了 RL 训练管道。agent 跑任务时产生的工具调用轨迹可以直接导出拿去当微调数据。换句话说你用它干活就是在给模型喂数据。记忆在迭代技能在迭代连模型本身都可以跟着你的使用习惯收敛。这才是越用越强真正指的东西。三层同时运转agent 执行任务时记忆层在喂上下文执行完之后技能层在判断要不要把这次的解法提炼成一个可复用文件执行轨迹则在后台积累成潜在的训练数据。技能自学习怎么运转的OpenClaw 的 skill 是人工写的——你或者其他开发者写好工具调用指令agent 照着执行写死了就是写死了。Hermes 的 Skill Document 是 agent 自己提炼的。具体流程分四步触发条件任务完成后agent 先评估这次解法是否足够新颖且非平凡。简单任务不触发技能提取只有复杂工作流才进入下一步。成功判断两类信号。显性信号是你主动告诉它好或者纠正了它隐性信号是你直接采纳输出一字没改——这也算确认。连续几次都没改agent 就认为这条路走对了。提炼内容从执行轨迹里抽取执行步骤、关键决策点、常见失败模式、验证逻辑打包成一个有名字的 Markdown 文件存在~/.hermes/skills/下。文件格式遵循 agentskills.io 开放标准可以装别人沉淀好的技能也可以把自己的共享出去。就地更新下次遇到类似任务它不从零开始而是先搜技能库找到对应 Skill Document 直接复用。如果这次跑出了更好的路径它会就地更新原文件让步骤描述更准确把新发现的边界情况补进去删掉已经过时的步骤。不是打补丁不是另建一份是原地演化。模板就是固定的填空格式你改一个变量其他全不动。Skill Document 不是这样——从真实执行轨迹里提炼出来的带条件分支带失败回路更接近真正的程序逻辑。官方说这叫program synthesis比模板走得深多了。风险提示自动生成的技能可能对产生它的那个特定上下文有过拟合——在别的上下文里调用时很难在失败之前发现问题。而且行为建模比传统 RAG 更难检查和调试如果模型学偏了或者积累了噪声找到根本原因需要更多排查。这是文档里明确列出的已知风险不是小概率情况。和 OpenClaw 的根本分歧不是功能多少两个框架赌的方向完全不同跑下来感受差很多。OpenClaw 用中央网关管所有的会话、路由、工具执行流程清晰行为范围精确可控——你已经想好要干什么它就是一个可靠的执行者。Hermes 反过来把agent 执行循环本身当引擎网关和工具运行时都围着这个循环转行为更难预测但对边界没想清楚的任务反而更能适应。维度OpenClawHermes控制平面中央网关Agent 执行循环技能来源人工编写经验涌现记忆模型标准 RAG语义检索行为建模可预测性高较低适应性较低高部署复杂度低中等你要是已经想清楚了要干什么OpenClaw 更顺手可预测、好调试。任务类型比较固定、跑得越多越值的那种才真的适合交给 Hermes。两个都用不上的场景一次性的杂活、任务类型高度多样。技能库永远累积不起来Hermes 的学习优势根本没机会发挥这种情况直接用 OpenClaw 省事。延伸阅读1Panel 上部署 OpenClaw配合 DeepSeek 打造属于你的全渠道“贾维斯”装上去只要两行命令真正麻烦的是想清楚接哪个模型安装没什么坑Linux、macOS、WSL2 都支持Android 走 Termux 也能跑。hermes setup跑完选模型、配基础选项跟着走就行。如果要放在 VPS 上 24 小时跑多做一步配消息网关。Hermes 支持 Telegram、Discord、Slack、WhatsApp、Signal、DingTalk、飞书等十几个平台配完之后 agent 在 VPS 上跑你在手机 Telegram 下任务、收结果不需要一直挂着 SSH。模型无关切换只需要hermes model不动代码。接 Hermes-3 系列最稳——Atropos 专门针对工具调用微调过跑复杂任务不容易跑偏技能提炼质量也更好。只想先跑起来看效果接 OpenRouter 上的 claude 或 gpt-4o 也行就是技能提炼会差一截。国内的话MiniMax、GLM、Kimi 都能直连没有访问问题。延伸阅读Claude Code 在大陆怎么稳定用我用 cc-switch 接 MiniMax 跑通了一套替代方案我的判断值不值得从 OpenClaw 迁过来不适合完全迁但值得同时跑起来。Hermes 的学习机制需要时间喂出来。得有足够多的重复性任务技能库才能真正积累起来。你现在跑的任务如果很杂、类型高度多样短期内很难感受到它的优势——技能提炼会发生但复用的机会很少。真正吃香的是任务类型固定的情况内容生产、代码审查、数据处理、服务器运维。跑一两个月同类任务会明显变快变准不是一直原地踏步。有一点要接受它还早。技能自动生成会出错行为建模有时候会朝奇怪方向走文档也还在更新。但方向对——让 agent 自己从跑过的任务里学不是一直等人给它写脚本。这比 OpenClaw 那套走得远一截。主路线用 OpenClaw 跑日常用 Hermes 专门跑你最核心的那类重复任务先把技能库建起来三个月后再做判断要不要把权重往 Hermes 转。备选路线如果你没在用 OpenClaw或者刚开始搭 agent 工作流直接从 Hermes 开始也行但要有心理准备——前两周它还不太认识你别因为这个就觉得它没用。

更多文章