1. 项目介绍

memory-lancedb-pro 是一个专为 AI Agent(如 OpenClaw、Claude Code 等)量身定制的生产级长期记忆插件

该项目基于高性能嵌入式向量数据库 LanceDB 开发。其核心价值在于解决了大模型对话中的“瞬时性”痛点——通过将对话中的关键信息结构化、持久化,赋予 AI 跨会话、跨时间的记忆能力。

项目亮点

相比基础的记忆插件,它具备以下进阶能力:

  • 持久化存储:记忆不再随 Session 清理而丢失。
  • 多维分类:自动识别用户资料、偏好、实体、事件、案例和模式。
  • 工业级检索:结合了向量搜索、全文搜索与重排序技术。
  • 智能遗忘:引入 Weibull 衰减模型,自动清理低频过时信息。
  • 混合搜索 (Hybrid Search):结合“关键词匹配”和“语义理解”,即使你记错了词也能搜到。
  • 跨编码器重排 (Reranking):对搜索结果进行二次打分,确保最精准的记忆排在第一位。
  • 本地优先:数据存储在你的本地磁盘上,隐私性好且响应极快。

2. 核心原理

该插件构建了一套完整的记忆生命周期管理系统,其流程包含:

2.1 智能提取与分类

系统利用 LLM 在后台对每一轮对话进行扫描,并将其归纳到以下六个维度:

  • Profiles (身份):如用户的姓名、职业、所在地。
  • Preferences (偏好):如编程习惯、语言偏好、常用框架。
  • Entities (实体):对话中反复出现的特定项目名、软件名、工具。
  • Events (事件):过去的讨论记录、已达成的里程碑或决策。
  • Cases (案例):之前解决过的问题方案及排障记录。
  • Patterns (模式):用户的思维逻辑、工作流或行为习惯。

2.2 混合检索架构 (Hybrid Retrieval)

项目采用了三层检索过滤以确保召回精度:

  1. 向量检索:捕捉语义上的相似性,处理模糊概念。
  2. 全文检索 (BM25):确保特定关键词(如项目代号、唯一 ID)的精准命中。
  3. 重排序 (Rerank):利用 Cross-Encoder 模型对结果进行二次打分。

3. 安装指南

3.1 环境要求

  • Node.js: v18.0.0 或更高版本。
  • 操作系统: 兼容 Linux, macOS, Windows。

3.2 安装步骤

作者给出了更优雅的安装方式:直接通过skill安装,可配置本地模型

https://github.com/CortexReach/memory-lancedb-pro-skill

方式一:在 OpenClaw 中安装(推荐)

openclaw plugins install memory-lancedb-pro

方式二:作为独立 NPM 包安装

npm install @cortexreach/memory-lancedb-pro

3.3 快速配置

在项目配置文件(如 config.yaml)中指定该记忆槽位:

memory:
  provider: "lancedb-pro"
  path: "./data/memory_db"
  rerank:
    enabled: true
    provider: "jina" # 也支持配置为 siliconflow 或本地模型

4. 原理

🟢 LLM (大语言模型) —— “决策大脑”

  • 代表模型:Claude 3.5 Sonnet, GPT-4o, DeepSeek-V3。
  • 核心职责:负责逻辑推理最终表达。当系统从记忆库中捞出碎片信息后,LLM 负责把这些信息整合并回答你的问题。

🔵 Embedding (嵌入模型) —— “语义翻译官”

  • 代表模型text-embedding-3-small, bge-m3
  • 核心职责:负责向量化。它把人类语言(文字)翻译成一组复杂的数字坐标(向量)。
  • 底层原理:含义相近的话(如“西红柿”与“番茄”),在数字坐标系里的距离会非常接近。

🟠 LanceDB (向量数据库) —— “超级书架”

  • 性质:高性能、Serverless(无服务器化)向量数据库。
  • 核心职责:负责极速存储与检索。它把 Embedding 生成的数字存入本地硬盘,并支持在毫秒级内比对数万条记录,找出最匹配的那几条。

5. 实践案例

场景一:开发偏好的自动继承

  • 对话记录:用户提到“写 Python 时习惯使用 4 空格缩进并强制开启类型检查”。
  • 效果:在新会话中要求 AI 写代码时,AI 会自动沿用该风格,无需重复指令。

场景二:跨项目上下文关联

  • 背景:用户曾详细讨论过“Orion 架构”的数据库迁移坑点。
  • 效果:用户提问“上次说 Orion 迁移要注意什么?”时,插件瞬间定位历史讨论并复述决策。

场景三:手动管理记忆库

用户可以通过命令行直接操作:

  • 查看统计:openclaw memory stats
  • 全文搜索:openclaw memory search “架构设计”
  • 手动清理:openclaw memory forget “旧的服务器密码”

5. 总结

memory-lancedb-pro 为 AI Agent 补齐了关键的“长效记忆”拼图。它不仅提高了检索精度,更通过智能分类和衰减机制,让 AI 能够像人类一样,随着交流的深入,越来越懂你的工作习惯。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐