大家比较的可能已经不再只是模型强不强、代码好不好而是它能不能把经历变成经验把“记住”变成“会用”。作者 | 王启隆出品丨AI 科技大本营IDrgznai100大家最早讨论 OpenClaw 时记忆几乎总被当成它和普通聊天机器人的分界线。它有 workspace有 MEMORY.md有 daily memory也有一整套试图把智能体变成“长期协作者”的结构。和那些一问一答、对话结束就几乎归零的模型相比它看上去更像一个能持续做事的系统。但很快记忆也成了围绕它最密集的抱怨来源。不会经常存不会稳定取反复读、反复压缩、反复试错。明明已经踩过的坑下一次还会再踩一遍明明已经讲过的背景过一轮任务又得重新交代。记忆原本是它最被期待的一部分最后也成了它最早暴露问题的一部分。近日笔者整理文章时正好遇到了 OpenClaw 在对话中途因上下文过载突然“断线”。这就像一个原本和你并肩赶路、聊得热火朝天的挚友在眨眼间眼神忽然空洞。他依然维持着那个礼貌的坐姿却在下一秒开口时用那种客气而冰冷的陌生语调问你“你好请问有什么可以帮您”在那一刻你们共同度过的几个小时连同那些默契与共鸣都被彻底格式化成了一片白噪音实在是细思极恐。这当然不只是 OpenClaw 的问题。当 Agent 开始真正进入长期任务、长期协作甚至多 Agent 配合的场景之后一个更底层的分界线开始浮现大家比较的可能已经不再只是模型强不强、代码好不好而是它能不能把经历变成经验把“记住”变成“会用”。聚焦 OpenClaw 引爆的智能体革命我在 CSDN 最新一期《AI 进化论》直播里对话了两位能解答这些问题的专家记忆张量 MemTensor 应用算法负责人、MemOS OpenClaw 项目技术负责人唐波和奇点智能研究院 AI 辅助软件开发咨询师、《氛围编程》作者伍斌。这一期我们表面上聊的是记忆系统实则是在拆解下一代 Agent 走向“长期主义”的底层逻辑。这也是这一季《AI 进化论》系列策划的初衷——从起源、技术、产品、安全到未来深度拆解 OpenClaw 引爆的智能体革命为每一位试图在 Agent 时代寻找坐标的开发者提供一份“生存指南”。OpenClaw 最强的地方为什么也成了它最大的短板王启隆为什么到了这一轮的 Agent 发展大家又重新开始认真讨论记忆的问题如果往前看几年大家关心的就是模型能力本身在 Benchmark 上打榜。现在大家真正发现 Agent 要进入 workflow光能回答问题还不够它还得能延续偏好、上下文以及已经踩过的坑和得到的结论。唐波做 Memory 这件事很早从 2023 年我们把 Memory 训练到基座模型一直到现在做了很长时间。为什么现在 Memory 变得愈发重要关键在于 OpenClaw 把 Agent 推到了大家的面前让大家对任务的执行有了更多的理解。OpenClaw 在执行过程中面对的是非常长期的任务不像以前我们一问一答就结束了。那时直接用一些简单的 RAG 方法也可以检索到它以前记过的简单东西。但是现在 OpenClaw 已经到了任务级别。在执行任务的过程中有很多内容比如代码、脚本、过往的执行情况例如探查到哪个文件夹之类。在反复相似的任务执行过程中它去记住这些东西是很重要的。这不只是说我之前看过什么东西而是说“之前我遇到了这些情况或者解决了这个问题对我后续任务的执行有多大影响”。它应该像人一样去理解而不是简单地记住。从“记住”到“会用”之间有很大不同。以前我们都要求绝对的匹配完全一样的词才能检索出来或者讲过某一个事情才能把它召回。但现在更多的是要在任务级别或者在更长程的任务里面形成一种相似的借鉴和依赖来启发模型完成从“记住”到“会用”的过程。伍斌我是从使用工具的角度来看。在我去年出版《氛围编程》的时候大模型的能力还不是很强。今年就不太一样了大模型能力越来越强再用氛围编程写代码时可以做的事情也越来越多。很多小伙伴可能会忽视掉比如换一个话题需要新建一个会话但他们会把所有不相关的内容都放在一个 session 里面这会导致模型出现幻觉输出质量非常差的结果。随着模型越来越强大工作越来越复杂使用大模型的时间越来越长该怎么样去管理好这种记忆是一个必然要面对的问题。从“记住”到“会用”中间差的到底是什么王启隆记忆算是现在 Agent 相比我们常用的 ChatBot 的显著优点。但比较有趣的是OpenClaw 现在最大的问题也是记忆。为什么 Agent 对记忆的需求现在会明显增强以及 OpenClaw 是在哪一方面做得不好导致它的记忆问题成了一大缺陷唐波OpenClaw 本身对记忆这层做的工作还是蛮多的。最开始它的记忆都放在文件夹里面做了一些压缩然后让模型去读。早期出现的问题是第一它不会经常去存东西。每天的聊天记录是以文档方式放进去存到一个 .md 文件里就像写日记一样记流水账。在核心记忆和文件里你必须明确告诉它“存”它才会写到文件夹里面去。不会经常存而且检索调用的频次也不是很高这是第一个问题。第二个问题是之前的 Memory 无论如何会去读最近两天的文件这个量其实非常大。如果你用 OpenClaw 比较多一天就能积累非常多的内容。这就导致它不断触发压缩存储的策略需要去加工消耗的 Token 就会比较多。不经常存也不稳定地取就会导致有些问题它反复去试错。其实这个问题它已经碰到过但是这一次它没有获取到记忆导致反复试错也包括跟人之间的交互。这就会导致Token 消耗变得很多让大家感觉 OpenClaw 怎么那么费钱。同时有的时候感觉跟它说过了它怎么又不记得了或者因为它要反复读最近两天的内容导致响应时间变长反复压缩又导致 Token 消耗大幅上涨。总结下来现有的 OpenClaw 记忆效率没有那么高其次围绕记忆从“看到”、“知道”到“学会”、持续演进以及群体协作方面做得还不是很好。它不是简简单单说我之前看过什么东西而是说之前我遇到了这些东西或者解决这个问题对我后续任务的执行有多大的影响。应该像人一样而不是只是简单地记住它。从“记住”到“会用”之间是有很大不同的。就像你和 AI 说“我之前已经跟你讲过类似的东西你怎么就记不得呢”以前我们都是要求绝对的匹配完全一样的词检索出来或者讲过某一个事情把它召回。但现在更多的是要在任务级别或者在更长程的任务里面形成一种相似或职务上的借鉴和依赖来启发模型从“记住”到“会用”的过程。王启隆这种目标究竟是 Agent 技术还是演进到一种持续学习、经验压缩和自我更新的能力这也正是直播开始前提出的讨论如何让 Agent 从“记住”Remember走向“学会”Learn。想请两位老师定义一下Agent 怎么样才算“学会”唐波Agent 的“学会”我们现在的定义是相似的任务它知道怎么去解决。学会的逻辑在于能够举一反三遇到相似的事情能快速处理掉。举个具体例子它在查文件夹时看到里面都是视频那么下次查文档就不会再去看一遍了。学会的标志就是以前踩过的坑在新的任务下不会再重蹈覆辙这非常重要。伍斌“记忆”就好比有个地方存着类似于从数据库里去取。“学会”是智能体知道了这个知识碰到情况就去调用工具干活。如果它能干活并且知道以前踩过的坑这就是学会了。唐波但实际上像我们学数学不是说那个公式你看过就完全理解了。更多的是首先看清楚公式是什么接着理解它是什么然后再把这个知识跟过往的知识融会贯通。以后在相似的场景下你才能够触发。这个事情非常重要直到现在 OpenClaw 也没有解决。如果要让我们的 Agent 从“记住”到“学会”并且持续演化这是非常重要的一环。王启隆很多开发者觉得 AI 不是不聪明而是每次都得重新解释重复带 AI 进入上下文这是每天最烦的损耗。想切换到伍斌老师的视角在您的工作中有没有哪些事情让您明确觉得没有记忆系统AI 永远只能打下手做不了真正的长期协作者伍斌我体会挺深的。写了《氛围编程》这本书之后我开始尝试拿它做一些感兴趣的应用。去年 LangChain、LangGraph 比较热的时候我用它做了一个智能体帮我孩子选大学专业需要去网上搜“十四五”规划挑选国家重点投资的专业。这个事情要经过多轮对话先澄清诉求提出方案再去执行。当时我没有 Memory 的概念以为大模型能支持结果发现不行。第一轮对话之后第二轮它就把前面全忘掉了。后来只能把前面的所有对话再发一遍。这就像你请了个新实习生结果发现他是个失忆者每次都要跟他讲架构和规范非常烦。这让我印象非常深刻。记忆真正难的不是存下来而是在对的时候调出来伍斌OpenClaw 有一个优势它的所有记忆都在你的 workspace 下面。一般来说会有一个大写的MEMORY.md文件把你希望它记住的长期内容、要点比如踩过的坑让它整理存进去。还有一个目录下面按照时间戳来存日常的 memory它会自动调用最近两天的 memory。虽然是粗粒度但至少能让你看到。它的弊端是没有过滤或处理一股脑就把两天的记录或者所有的 memory、tools、agents 都读了进来这会占用很多上下文。唐波MemOS 提供了云上版本和本地版本。先讲一下大家关注比较多的本地版本是怎么解决这个问题的。记忆进来以后MemOS 本身会对它进行压缩提炼这究竟是一件什么样的事情。其他记忆系统可能是一片一片先把对话内容分片放进去因为太长检索效果会下降。MemOS 的做法在这个部分是一样的我们会把片段内容先压缩然后再放进去。压缩做的 summary 只是故事的概要。当来一个 query 去检索相关的东西它会先精准命中片段并召回。召回以后交给大模型大模型会觉得这只是一个片段的信息。如果片段信息不能支持解决当前的 query它就会去调用我们提供的工具把这个记忆或者任务的全部内容拿出来当前做这件事情的背景是什么是怎么做的拿到了什么结果。如果它觉得这是一个很复杂的系统工程之前涉及过更困难的事情它就会看以前做这件事情沉淀了哪些 Skill是不是不需要反复试错。那就把 Skill 拿过来按照 Skill 去执行即可。整个 AI 执行过程中的信息我们认为都是有用的。更重要的是怎么把正确的记忆调出来这是至关重要的。所以我们做了记忆的版本。召回的时候先召回相似的语义。如果有多个节点我们再去看当时场景下用什么样的记忆最合适。我们认为所有的信息都是有意义的更重要的是在 query 的时候通过时间、人物或具体 context 去判断当前应该用哪条记忆。王启隆我现在“养虾”也输入了几千万 Token 了经常在想记忆膨胀之后上下文越来越多怎么办我现在看到 MemOS 进入界面后有一个很新颖的点就是记忆可以自动管理。想问一下你们是怎么做记忆筛选的包括不同会话、不同日志从技术层面可以讲一下吗唐波整个 AI 执行过程中的信息我们认为都是有用的。大家讨论记忆遗忘这个事情假设给你永久过目不忘的能力你要不要我相信所有人都愿意要。所以我们认为所有东西都是有用的。应该发挥电脑本身的优势什么都能查到只是应该在合适的地方和时间把正确的记忆调回来。我们不会把记忆删掉繁杂或重复的都会放进去。只是在检索的时候我们会对记忆做版本管理对重复的记忆做标注。召回的时候先召回相似的语义。如果有多个节点我们再去看当时场景下用什么样的记忆最合适。你以为你在省事其实你只是换了一种管理方式王启隆我最近还有个直观感受没装 MemOS 之前很多时候在做机械的事不停地给 AI 补充背景 context变成了“人给 AI 干活”。装上之后以为可以轻松一点全放给 AI 做。但其实人还是要干活只是换了种做法开始想哪些东西值得沉淀成 Skill哪些是临时信息哪些值得整理成任务。这会不会反过来要求人未来学会另一种能力不只是提问还要学会管理上下文、管理经验、管理协作方式伍斌我体会挺深的。写了《氛围编程》这本书之后我开始尝试拿它做一些感兴趣的应用。这个事情要经过多轮对话先澄清诉求提方案再去执行。当时我没有 Memory 概念以为大模型能支持发现不行。第一轮对话之后第二轮它就把前面全忘掉了。后来只能把前面的所有对话再发一遍。这就像你请了个新实习生结果发现他是个失忆者每次都要跟他讲架构和规范非常烦。这让我印象非常深。唐波目前人还是承担很多工作当然我们希望让 AI 去做自动化的决策。我们希望记忆系统足够好就像雇的秘书一样给个眼神就知道该给什么东西。以后给一个 prompt或者一句话让他写材料他应该知道老板今天干了什么事、背景是什么并自动补上。这个事情目前还没做得很好还在尝试做 prompt 的自动化注入以及跟场景的自动匹配。核心逻辑是因为有了 MemOS有了你的记忆它从而更加懂你。指令发出后它能根据场景和背景信息注入相关内容不用你手动敲。我们希望实现的效果是第一有了记忆系统驱动大模型的方式更快输入的字更少第二它更了解你输出的内容你会更满意不用反复修改。多个 Agent 共享记忆会更聪明还是更混乱王启隆我进入 MemOS Viewer 界面之后还有一些感受。第一感觉是我的会话居然打通了。以前我的两个会话是各司其职的一个写文章一个写提纲记忆是分开的比较干净。结果接入 MemOS 后我发现他们俩开始“串台”了其中一个会话也知道另一个会话发生的过程。现在这样共享长期记忆协作效率可能会提升但是角色的边界、上下文可能也被冲淡了。想问一下你们是怎么解决这个问题的唐波同一个 Agent 的多个会话默认是打通的。因为一个 Agent 只有一个 prompt 文件我们认为它的角色是一样的所以默认把系统记忆打通了。如果是不同的 Agent 之间记忆是完全孤立的A 智能体和 B 智能体之间记忆不会串台。如果你想让这两个智能体协作怎么办可以在后台操作如果你觉得这条记忆需要共享给其他智能体只要共享出去就好了其他智能体就能检索到这条记忆。伍斌我是这样想的。刚才说的只是单人场景今年应该是多智能体协作的年代了。随着智能体增多任务越复杂可能要并行多个智能体协作。每个智能体好比是一个人比如一个产品经理、一个开发他们对同一个记忆的理解可能不一样。该怎么评判哪个智能体的记忆权重更大遵循谁的记忆来做取舍唐波这两个记忆理论上在解决这个问题上都是有用的但场景不一样。A 同学执行的电脑可能是个裸机很多软件没安装确实要执行很多步。B 同学可能相关的软件依赖都已经配置好了下来就能用。这两个记忆都有用。解决这个问题更多的是要看 context 之间的匹配程度。每一条记忆都有它所属的背景。现在的做法是先把背景信息重建出来通过背景信息衡量记忆之间的匹配程度。我们也做了很多记忆效能的分配和匹配看在当前的 context 下什么样的记忆最有用。哪怕看起来都是解决同一个问题实际上背景信息的重建有天然的差别。MemOS 本地版本提供的方法是首先可以组一个局域网把信息共享上去其他人在检索时能拉到共享的东西。第二检索信息后可以加工成 Skill推到团队共享里实现团队技能的共同进步。用户可以决定怎么把记忆共享出来也可以提供对应的 Skill。如果系统处于群体智能感知状态它会看当前大家做什么任务自动挑选工具把当前的记忆、task 或技能发到局域网里实现自动化。王启隆很多人一听多 Agent会自动觉得分工更多、更协同、更聪明。但其实多 Agent 不一定是把智能体简单的 11可能是把复杂度乘以 N。群体智能真正难的不是共享而是治理伍斌我能想到的坑除了前面说到的哪个记忆权重更高还有一个问题哪些记忆是过时的怎么判断人是有遗忘的会把当前相关的记忆调出来以前的就遗忘掉。但对于大模型来说靠什么机制遗忘掉目前不相关的记忆唐波现在的解决方案做了一些时间衰减。第一是加版本第二是召回时对记忆做时间上的衰减。老的记忆权重会低很多这也是业界比较通用的方案。要实现更精准的识别还是要依靠模型的 ICL (In-Context Learning) 能力去判断。人也一样回忆相关事情时会想哪个跟当前情况更匹配。所以还是依靠模型 ICL 能力的提升以及记忆片段构建的背景信息。王启隆多个 AI 一旦共享长期记忆虽然会更聪明但会不会慢慢失去原本分角色、分任务的边界以及上下文的干净度比如一个 Agent 学到了坏经验带着错误继续协作导致错误在系统里被放大。系统会不会有自我纠错、自我找 Bug 的能力唐波这个情况完全存在。共享记忆最困难的是隐私安全问题。信息共享给 A、B、C、D对 AI 来说无所谓但共享给 B 可能就有问题。比如公司老板和 HR 讨论人事信息在 HR 内部流通没问题放在普通员工那里流通就是大问题。另外在应用层信息被带偏的问题目前还稍微好一点。每条信息都有其存在的价值和使用场景。只要想办法把 context 构建得足够全大概率就知道信息应该在什么情况下使用。另外我们构建了记忆的效用Skill 或记忆是有版本的。如果执行出错模型会反思环境反馈的结果发现记忆过时了然后在执行过程中反向纠错记忆就会构建成 V2 版本。伍斌记忆是不是也要 Review 一下或者让智能体帮我们 Review然后人再去看哪些记忆是有害的进行干预。唐波我们针对这个做了两点工作。第一下个版本会在夜间 12 点把当天的记忆拎出来筛选 Review 一下哪些重要、哪些有问题同时构建 To-Do 事项把今天回忆一遍列出要做的事并修正错误信息。第二在 Viewer 记忆页面上支持用户删掉或修改错误的记忆。王启隆感觉权限开放得越多Agent 越厉害。未来做 Agent 的记忆系统会不会变成一个权限设计的问题而不只是存储的问题伍斌权限应该做到架构里去而不是一个外部系统。现在是智能体时代AI 能够去干活了。如果它 7x24 小时帮你干活听起来不错但如果干的是离谱的活你也没盯着它就会捅很多娄子。所以权限是非常重要的话题记忆也应该和权限结合起来而不是什么人都能看到所有人的记忆。真正拉开 AI 差距的不再只是模型而是持续学习能力王启隆如果让两位用一句话判断我们这次的直播主题未来真正拉开 AI 差距的可能不再是哪家模型更大、更会聊天而是哪一种新的系统能力你们会怎么回答唐波我觉得下一步让模型能够持续学习和演进才是最重要的。现在大模型训完智能就停留在那里虽然衍生了各种 ICL 能力、RAG、记忆系统仿佛不会忘记现在发生的事。但进一步的能力提升比如纠错、演进的能力才是下一个 Agent 或智能再提升的核心关键点。伍斌我不想说未来几年我想说今年。我希望我用的智能体至少能知道我想要什么。我说一句话它应该知道上下文和意图而不是让我反复重复以前说过的话。把这一点做好今年就是一个非常大的成果。唐波模型训练完后能力已经基本确定了但就像人大学毕业后还会学习很多东西。通过与现实环境交互获得反馈对环境的认知会提升。这并不是说基础能力提升了多少而是你见过了、了解了、反思了自然能举一反三。所以我们希望 Memory 在 Agent 时代能强调如何用记忆提取经验再反向用经验引导模型决策让 AI 像人一样思考和工作。这可能是 AI 在大模型完成训练后再次学习成长的一个重要关口。我们希望记忆系统足够好就像雇的秘书一样给个眼神就知道该给什么东西。以后给一个 prompt或者一句话让他写材料他应该知道老板今天干了什么事、背景是什么并自动补上。现在启动大模型很容易就要写四五千字的 prompt因为有太多背景信息和要求要给它。我们希望 OpenClaw 有了记忆系统后能够自动填充这些。最终希望用户打字越来越少拿到任务的速度越来越快因为模型懂你。结语Agent 到底有没有可能从一次次任务里慢慢长出经验对用户来说最直接的需求也许很简单别再让我每次都从头讲起就够了。对系统来说真正困难的也许是另一面怎么把已经发生过的事变成下一次还用得上的判断。这也是为什么记忆会在这一代 Agent 里变得越来越重要——它不再只是“记住了什么”而开始决定一个智能体能不能真的成为长期协作者。但当 Agent 跨越了这道技术鸿沟真正成为我们身边的“长期协作者”时另一场更猛烈的风暴也将随之而来当 Agent 能自主执行任务传统的 App 还需要存在吗流量与分发的规则将如何改写如果多个 Agent 开始在局域网内共享记忆与技能企业的商业机密与系统安全又该由谁来兜底作为普通开发者我们又该如何在巨头林立的生态中找到自己的位置这些正是 CSDN《AI 进化论》系列接下来要深度拆解的命题。聚焦 OpenClaw 引爆的智能体革命本期探讨只是全系列的一环。在接下来的数期直播中我们将继续邀请行业顶尖专家、大厂技术负责人与独角兽创始人层层揭开 Agent 时代的终极谜题欢迎关注 CSDN 视频号追踪后续的精彩直播。【活动分享】48 小时与 50 位大厂技术决策者共探 AI 落地真路径。奇点智能技术大会是由深耕多年的「全球机器学习技术大会」重磅升级而来。2026 奇点智能技术大会将于 4 月 17-18 日在上海环球港凯悦酒店正式召开大会聚焦大模型技术演进、智能体系统工程、OpenClaw 生态实践及 AI 行业落地等十二大专题板块特邀来自BAT、京东、微软、小红书等头部企业的 50 位技术决策者分享实战案例。旨在帮助技术管理者与一线 AI 落地人员规避选型风险、降低试错成本、获取可复用的工程方法论真正实现 AI 技术的规模化落地与商业价值转化。这不仅是一场技术的盛宴更是决策者把握 2026 AI 拐点的战略机会。