当前位置:首页 > 技术教程 > 正文

MemOS Local :让你的OpenClaw拥有永久记忆

OpenClaw 用久了,有个根本问题:对话一长,AI 就开始"失忆"。
之前聊过的内容、解决过的问题,下次再问又要从头解释。
今天介绍一个插件,专门解决这个痛点——MemOS Local,让 OpenClaw 拥有真正持久化的本地记忆。

MemOS Local 是什么?

MemOS Local 是 OpenClaw 的本地化记忆服务插件。所有数据存储在本地,不上传云端,完全离线可用。

核心定位:给 OpenClaw 装一个"本地记忆大脑",每次对话自动整理、自动总结、自动进化。

MemOS Local :让你的OpenClaw拥有永久记忆

六大核心能力

能力说明
全量记忆写入每次对话自动捕获,语义分块后持久化,不丢失关键信息
混合智能检索FTS5 + 向量双通道检索,语义相关而非关键词匹配
任务自动总结多轮对话自动归纳为结构化任务经验
技能自动进化成功经验自动沉淀为可复用技能,持续升级
原生记忆导入一键迁移 OpenClaw 原生记忆,智能去重、断点续传
多智能体协同记忆隔离 + 公共记忆 + 技能共享,多 Agent 协同进化
MemOS Local :让你的OpenClaw拥有永久记忆

工作原理:四条智能流水线

MemOS Local 的核心是四条自动运行的流水线,每条解决一个问题:

流水线一:记忆写入

对话 → Capture → 语义分片 → 内容哈希去重 → LLM 摘要 → 向量化 → SQLite 存储

关键机制:
• 系统消息自动跳过
• 工具调用结果不会重复存储
• SHA-256 内容哈希防止同一会话内重复 chunk

流水线二:任务生成

新 chunks → 按用户轮次分组 → LLM 话题判断
• 同一话题归入当前任务
• 新话题创建新任务
• 时间间隔超过 2 小时强制分割

结果:碎片化的对话被整理成结构化任务记录——目标、步骤、结果、关键细节完整保留。

流水线三:技能进化

已完成任务 → 规则过滤 → 检索相关已有技能
• 找到相关技能 → 评估升级(refine/extend/fix)
• 无相关技能 → 评估新建 SKILL.md + 脚本 + 验证项
• 质量评分 ≥ 6 自动安装
这就是它最厉害的地方——Agent 越用越聪明,同类问题不再重复踩坑。

流水线四:智能检索

查询 → FTS5 + 向量双通道召回 → RRF 融合 → MMR 重排 → 时间衰减过滤 → Top-K → LLM 相关性过滤 → 返回摘录

技术亮点:
 RRF(倒数排名融合):两个检索通道合并为统一得分
 MMR(最大边际相关):重排兼顾相关性与多样性
 时间衰减:近期记忆加权提升,默认半衰期 14 天

MemOS Local :让你的OpenClaw拥有永久记忆

安装步骤

环境要求

要求版本
Node.js>= 18.0.0
OpenClaw>= 2026.2.0
系统Linux / macOS / Windows 均支持

第一步:安装插件

openclaw plugins install @memtensor/memos-local-openclaw-plugin@latest

第二步:安装依赖(部分系统需要)

cd ~/.openclaw/extensions/memos-local-openclaw-plugin
npm install
npm rebuild better-sqlite3

第三步:重启网关

openclaw gateway restart

验证安装

openclaw status
看到以下输出说明安装成功:
Memory │ enabled (plugin memos-local-openclaw-plugin)
memos-local: initialized (db: ~/.openclaw/memos-local/memos.db)

数据存储位置

内容路径
插件本体~/.openclaw/extensions/memos-local-openclaw-plugin
记忆数据~/.openclaw/memos-local/memos.db
Memory Viewerhttp://127.0.0.1:18799
插件代码与数据完全分离,升级插件不会删除已有记忆。

内置管理面板

MemOS Local 提供 6 个本地面板页面,完全可视化:
页面功能
Memories时间线浏览、CRUD 操作、语义搜索
Tasks任务列表、状态筛选、结构化总结
Skills技能管理、版本历史、一键下载
Analytics读写统计、活跃度图表、记忆分布
Logs工具调用日志、输入输出、耗时统计
Settings在线配置、模型切换、参数调优

效果数据

指标提升幅度
LLM Judge Score提升约 18%
平均交互轮次减少 53%(116轮 → 54轮)
单次任务 Input Token减少 30.8%
总 Token 消耗节省近 49%

与 mem9 的区别

维度mem9MemOS Local
存储云端完全本地 SQLite
隐私数据上传云端零上传
跨设备支持不支持
任务总结
技能进化
分级模型Embedding 轻量 / 摘要中等 / 技能高质量

说在最后

如果你的 OpenClaw 经常需要处理复杂、长周期的任务,MemOS Local 是一个值得投入的升级。

它解决的不只是"记住对话"这个问题,而是让 AI 真正从历史经验中学习、把成功方案固化为可复用技能。

长期来看,这会显著减少 Token 消耗、提升 AI 执行效率。


相关文章:

文章已关闭评论!