【 AIVectorMemory:给你的 AI 装上“长期记忆“ +跨会话记忆 + 任务驱动开发+问题跟踪:AIVectorMemory 工作流拆解】
AIVectorMemory:给你的 AI 编程助手装上"长期记忆"

每次开新会话,AI 助手就像失忆了一样?AIVectorMemory 这个开源 MCP Server 项目,用向量数据库帮 AI 实现跨会话记忆持久化,终结重复粘贴上下文的痛苦。
项目地址:https://github.com/Edlineas/aivectormemory
一、痛点:AI 编程助手的"金鱼记忆"
如果你经常使用 Claude Code、OpenClaw、OpenCode、Cursor、Windsurf 等 AI 编程工具,一定遇到过这样的场景:
昨天你花了半个小时教会 AI 你们项目的代码规范,今天打开新会话——它全忘了。上周踩过的数据库连接池坑,这周又被 AI 引导着踩了一遍。更不用说开发到一半的任务进度,每次都要从头交代背景。
你只能不断复制粘贴项目上下文,Token 疯狂消耗,效率大打折扣。
AIVectorMemory 就是为了解决这个问题而诞生的。
二、AIVectorMemory 是什么?
AIVectorMemory 是一个基于 Model Context Protocol (MCP) 开发的轻量级记忆管理 Server。它通过本地向量数据库,让 AI 编程助手具备跨会话的持久化记忆能力。
简单来说,它做了三件事:
记住 — 项目知识、踩坑经验、开发决策、用户偏好,全部存入本地向量数据库。
回忆 — 新会话启动时,通过语义搜索自动恢复上下文。你搜"数据库超时"就能找到之前记录的"MySQL 连接池踩坑",不需要记住原文怎么写的。
管理 — 内置问题跟踪和任务管理,从发现 Bug 到修复验证,形成完整的开发闭环。
三、技术架构一览
AIVectorMemory 的架构设计相当精简。最上层是你正在使用的 AI IDE(Cursor、Claude Code、Kiro 等),通过 MCP 协议的 stdio 方式与 AIVectorMemory Server 通信。
Server 内部由三层组成:
工具层:提供 8 个 MCP 工具——remember(存记忆)、recall(语义搜索)、forget(删除)、status(会话状态)、track(问题跟踪)、task(任务管理)、readme(文档生成)、auto_save(自动保存偏好)。
Embedding 层:使用 ONNX Runtime 加载 intfloat/multilingual-e5-small 模型,在本地完成文本向量化,不依赖任何云端 API。中英文混合内容都能处理。
存储层:SQLite 搭配 sqlite-vec 向量索引扩展,所有数据存储在本地 ~/.aivectormemory/memory.db 中,完全离线可用。
这套架构的好处很明显——零云服务依赖、无需 API Key、数据不出本机,对安全敏感的开发环境非常友好。
四、核心特性深度解读
4.1 语义搜索,而非关键词匹配
传统的笔记工具搜索靠关键词精确匹配。AIVectorMemory 不同,它把每条记忆转换为向量,通过余弦相似度进行语义级别的匹配。你用"接口响应慢"去搜,也能召回之前记录的"API 超时优化方案"。
4.2 智能去重
相似度超过 0.95 的记忆会自动合并更新,而不是堆积重复条目。记忆库始终保持干净整洁,不会随着使用越来越臃肿。
4.3 多项目隔离
一个数据库管理所有项目,但项目之间的记忆自动隔离,互不干扰。同时也支持 user 级别的跨项目记忆(比如你的编码偏好),切换项目时无感知。
4.4 任务驱动开发
这是 v0.2.5 版本引入的一个亮点功能。track(问题跟踪)和 task(任务管理)通过 feature_id 打通,形成"发现问题→创建任务→执行→状态同步→归档"的完整链路。任务完成时自动同步关联问题的状态,归档时自动联动。
4.5 Web 看板

通过 run web --port 9080 启动一个本地看板,提供记忆浏览、语义搜索、编辑删除、导入导出、标签管理、会话状态查看等功能。最有意思的是它还有一个 3D 向量记忆网络可视化,可以直观地看到各条记忆之间的关联关系。
五、快速上手
安装
最简单的方式是通过 pip:
pip install aivectormemory
然后进入你的项目目录,运行交互式安装:
cd /path/to/your/project
run install
这个命令会引导你选择 IDE,自动生成 MCP 配置、Steering 规则和 Hooks 配置,基本上开箱即用。
如果你不想全局安装,也可以用 uvx 直接运行:
uvx aivectormemory install
IDE 支持
目前已经覆盖主流 AI 编程工具:Cursor、Claude Code、Kiro、Windsurf、VSCode (Copilot)、Trae、OpenCode,甚至 Claude Desktop 也支持。每个 IDE 的配置文件路径不同,但 run install 会自动处理。
macOS 用户注意
macOS 自带的 Python 和 python.org 官方安装包不支持 SQLite 扩展加载,如果遇到 enable_load_extension 错误,需要改用 Homebrew 安装的 Python:
brew install python
/opt/homebrew/bin/python3 -m pip install aivectormemory
中国大陆用户
首次运行会自动下载 Embedding 模型(约 200MB),如果速度慢,可以设置 HuggingFace 镜像:
export HF_ENDPOINT=https://hf-mirror.com
六、Steering 规则:让 AI 知道"何时、如何"调用记忆
AIVectorMemory 本质上是存储层,它需要通过 Steering 规则 告诉 AI 什么时候去调用这些记忆工具。
run install 会自动生成一套完整的规则文件(写入到各 IDE 对应的规则目录中),核心逻辑大致如下:
新会话启动时,按顺序执行 recall 加载项目知识和用户偏好,再用 status 读取上一次的会话状态。收到用户消息后,先判断消息类型,对于代码问题会通过 track 记录、recall 查找已有踩坑经验、提出方案后设置阻塞等待确认,修复完再设置阻塞等待验证。整个流程强调"操作前验证、禁止盲目修改、自测通过才算完成"。
这套规则设计得很克制——AI 不能自行清除阻塞,必须得到用户明确确认才能继续,这在 AI 编程工具中是一个很好的安全实践。
七、实际使用效果
根据项目描述,使用 AIVectorMemory 后 Token 消耗可以降低 50% 以上。这个数字是合理的——不再需要每次对话都粘贴大段项目背景,语义检索只按需召回相关记忆,避免了全量上下文注入。
更重要的是开发体验的提升。AI 终于能"记住"你的项目了。你定下的代码规范、踩过的坑、做过的技术决策,不会因为换了个会话就消失。这对于长期迭代的项目来说价值很大。
八、技术栈总结
| 组件 | 技术选型 |
|---|---|
| 运行时 | Python >= 3.10 |
| 向量数据库 | SQLite + sqlite-vec |
| Embedding 模型 | ONNX Runtime + multilingual-e5-small |
| 分词器 | HuggingFace Tokenizers(中文使用 jieba) |
| 通信协议 | Model Context Protocol (MCP) |
| Web 看板 | 原生 HTTPServer + Vanilla JS |
整体走的是"轻量纯本地"路线,没有引入 Redis、Milvus 之类的重型依赖,安装部署成本很低。
九、写在最后
AIVectorMemory 是一个很实用的项目。它瞄准的是 AI 编程助手最大的痛点之一——跨会话记忆缺失,给出了一套轻量、本地、开源的解决方案。
项目目前版本 v0.2.8,迭代速度不慢,功能链路也比较完整(记忆管理 + 问题跟踪 + 任务管理 + Web 看板)。如果你日常重度使用 AI 编程工具,值得试一试。
项目地址:https://github.com/Edlineas/aivectormemory
如果这篇文章对你有帮助,欢迎点赞收藏关注,也欢迎在评论区分享你的使用体验。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)