1. 核心方法论 (Key Frameworks)

核心理论模型全称定义与核心价值来源

MVW

Minimum Viable Workflow

最小可行工作流。拒绝过度设计,先构建一个包含“输入-处理-反馈-输出”的最简闭环,验证 AI 协作的可行性。

Module 02

I-S-G-I-E

Workflow Stages

知识处理五环。将复杂的知识任务拆解为标准步骤:输入(Input)、结构(Structure)、生成(Generate)、迭代(Iterate)、表达(Express)。

Module 02

S.C.O.R.E

Structure for Prompts

提示词结构标准。通过角色(S)、背景(C)、目标(O)、要求(R)、评估(E)五要素,将模糊意图转化为机器可执行的“软协议”。

Module 03

MVR

Minimum Viable Repository

最小可行知识库。基于 Git 版本控制和元数据规范构建的工程化知识底座,确保知识资产“机器可读”且“历史可溯”。

Module 04

PEAR

Agent Loop

智能体运行闭环。将智能体行为解构为四个系统阶段:感知(Perceive) → 评估(Evaluate) → 行动(Act) → 反思(Reflect)。

Module 05

MVG

Minimum Viable Graph

最小可行图谱。在本地构建包含核心实体与关系的最小知识图谱 (GraphRAG),赋予智能体跨文档推理与全局结构理解能力。

Module 05

Agentic Workflow

Agentic Workflow

智能体式工作流。从被动的“问答模式”升级为“主动行动模式”。系统基于目标(Goals)、状态(State)与事件(Events)持续运行,而非单次触发。

Module 05

Agent Runtime

Agent Runtime

智能体运行环境。承载智能体的系统基础设施,提供状态管理、记忆存储、行动接口与反馈通道,决定了智能体能力的上限。

Module 06

MVA

Minimum Viable Agent

最小可行智能体。在本地运行环境中构建的具备完整 PEAR 闭环、且“推理外包、状态内生”的最小工程实体。

Module 06

DIKWA

Data-Info-Know-Wisdom-Action

价值链重构。在传统的DIKW知识金字塔顶端增加Action (行动),标志着从“给建议”到“做任务”的范式跃迁。

2. 安装:

一、系统底层环境

1. 安装 Node.js(MCP 依赖)

  1. 打开 Node.js 官网,下载 LTS 长期支持版(64 位 .msi)
  2. 双击安装,务必勾选 Add to PATH(自动配置环境变量)。
  3. 安装完成后,按 Win+R → 输入 cmd → 打开命令提示符,执行:
    node -v
    npm -v
    
    出现版本号(如 v20.x.x)即成功。

输出:

2. 创建 Python 虚拟环境(隔离依赖)

 打开 cmd,进入你的项目目录

# 第一步:切换到 D 盘

D:

# 第二步:进入目标目录

cd D:\my projects\Obsidian

创建虚拟环境:

python -m venv mcp-env

激活环境(命令行出现 (mcp-env) 即成功):

mcp-env\Scripts\activate

安装 MCP SDK:

# 使用阿里云镜像源安装 mcp[cli](最快、最稳)
pip install "mcp[cli]" -i https://mirrors.aliyun.com/pypi/simple/

4. 获取硅基流动 API Key(模型调用)

  1. 访问 硅基流动官网https://siliconflow.cn/ 注册账号。
  2. 进入控制台 → API 密钥 → 新建密钥,复制 sk-xxxx 密钥。

配置 Obsidian(核心知识库)

1. 安装 Obsidian

  1. 打开 Obsidian 官网,下载 Windows 版安装。
  2. 打开 Obsidian → Create new vault → 命名为 AI-Agent-Space → 保存到 D:\AI-Agent-Space无空格、无中文)。

2. 基础设置

  1. 进入 Settings → Files & Links
    • Default location for new attachments:改为 In subfolder under current folder

  1. 进入 Settings → Community plugins
    • 关闭 Restricted mode(允许第三方插件)。

3. 安装 Text Generator 插件

  1. 社区插件市场搜索 Text Generator → Install → Enable。

  1. 配置:
    • LLM Provider:Custom
    • Endpoint:https://api.siliconflow.cn/v1/chat/completions
    • API Key:粘贴你的 sk-xxxx
    • Model:deepseek-ai/DeepSeek-R1-0528-Qwen3-8B

4. 安装 Tars 插件

  1. 搜索 Tars → Install → Enable。
  2. 配置:
    • Provider:SiliconFlow
    • API Key:粘贴 sk-xxxx
    • Model Name:deepseek-ai/DeepSeek-R1-0528-Qwen3-8B

安装Dataview, 显示三个插件如下:

三、Cherry Studio 连接 Obsidian MCP(核心步骤)

1. 打开 Cherry Studio 设置

  1. 打开 Cherry Studio → 左下角 设置(⚙️) → 左侧 MCP 服务器
  2. 点击 添加服务器 → 选择 Import from JSON(代码模式)。

2. 粘贴 MCP 配置(替换为你的 Obsidian 绝对路径)

json

{
  "mcpServers": {
    "Obsidian-Vault": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-obsidian",
        "D:\\AI-Agent-Space"
      ]
    }
  }
}
  • 注意:Windows 路径用 \\必须是绝对路径、无空格

在编辑MCP配置这里填入:

{
  "mcpServers": {
    "obsidian-vault": {
      "command": "cmd",
      "args": [
        "/c",
        "npx",
        "-y",
        "@mauricio.wolff/mcp-obsidian@latest",
        "'D:\\my projects\\Obsidian\\AI-Agent-Space'"
      ]
    }
  }
}

注意:老师用 npx 直接作为命令,是因为他的课件基于 Linux/Mac 系统;而我们用 cmd 包装,是为了适配你的 Windows 10 系统—— 两者本质都是启动 MCP 服务,只是系统底层的命令解析规则不同。

3. 保存并验证

点击 保存,等待指示灯变 绿色(连接成功)。


四、最终验证(确保全部成功)

  1. 在 Cherry Studio 聊天框输入:

    plaintext

    读取我的 Obsidian 笔记 AI-Agent-Space
    
  2. 能正常读取笔记内容 → 环境搭建完成。

3. 作业:

✅ 步骤 1:在 Obsidian 新建笔记并粘贴原始文本

  1. 打开 Obsidian,在你的仓库(D:\my projects\Obsidian\AI-Agent-Space)里,右键「新建笔记」,命名为 02-SCORE-Practice
  2. 运行你的第一次对话

新建笔记:点击左侧栏的 New note,命名为 00-Hello-World

输入指令:在笔记中输入以下内容(这是给 AI 的指令):

你好,AI。请你扮演一位资深的 Python 工程师。

请用 3 句话向我解释什么是“Hello World”,并输出一段 Python 的 Hello World 代码。

触发生成

  • 将光标停在文字末尾。
  • 按下快捷键(默认通常是 Cmd+J 或 Ctrl+J,具体看插件设置)。
  • 观察屏幕,如果一段文字自动流淌出来,环境觉醒成功

运行你的第一次对话

步骤 1:呼出控制面板

在 Obsidian 的右侧边栏找到 Tars 的图标并点击,或者使用快捷键 Ctrl+P唤出命令面板,输入 Tars: 打开对话窗口,选择 Tars 有关的指令。

步骤 2:注入上下文并测试
01-python工程师
  1. #我 :
  2. 你好,AI。请你扮演一位资深的 Python 工程师。
  3. 请用 3 句话向我解释什么是“Hello World”,并输出一段 Python 的 Hello World 代码。
  4. 并参考S.C.O.R.E.结构化提示工程框架,输出生成这段代码的提示词。
  5. #SiliconFlow :

💡 提示工程技巧: Tars 的核心工程优势在于动态上下文引用。除了自动读取当前笔记,你还可以在提问时使用特定的引用符(如 @),将知识库中任意的其他 Markdown 文件挂载到单次请求中。这是未来构建复杂“本地知识问答”底座的基础动作。

  1. 打开这篇笔记,把下面这段「混乱的原始文本」完整粘贴进去:

    plaintext

    那个,关于下周的发布会,小王你记得去定一下会议室,要大的那个。然后海报设计得抓紧了,那个谁,UI组的小李,周三前得初稿吧。还有就是技术那边,服务器扩容的事情,张工说已经搞定了,但是得测试一下,周五前给个报告。哦对,发布会的PPT,我还没写完,可能要延后到周四给。大家辛苦一下。
    

把光标移到最后,然后ctrl+j 即可调用 Text Generator
text generator

1. 在任意一行文本后按 `ctrl + j`,即可在后面自动生成文本。
2. - 如果左键选中文本,则该文本即为发送给 gpt 的上下文
- 如果打字光标前有文本,则该行文本即为发送给 gpt 的上下文
- 如果打字光标前无文本,则整个文档都将发送给 gpt 作为上下文

输入简单的提示词

在 Text Generator 中输入以下指令并运行:

帮我整理一下这个会议记录。


工程化的白盒解析

  1. S—Scrum Master:激活了模型关于“敏捷管理”、“Action Item”的专业知识权重,它立刻知道“任务”比“闲聊”更重要。
  2. C—Context:明确了输入数据的边界(【开始】…【结束】),防止 AI 把你的指令也当成会议记录去处理。
  3. O—Objective:通过使用“提取”、“识别”等原子化动词,并将大任务拆解为 4 个具体步骤(内容、负责人、DDL、状态),我们强制模型触发了思维链。这让模型在生成结果前,必须先在潜空间内完成逻辑推理,建立了从“模糊录音”到“清晰条目”的直接映射路径。
  4. R—Markdown表格:这是最关键的 “格式契约”。通过规定 Markdown 格式,我们保证了输出的数据可以直接被 Notion、Obsidian 或其他软件读取。
  5. E —Check:修正了可能的逻辑漏洞(比如容易忽略张工已经做完的事实)。

03-数据清洗

“噢,我叫韩梅梅,不过我现在的同事都叫我 Meimei。我出生在 1996 年,现在正好 28 岁。我在上海已经工作 5 年了,目前在一家挺牛的广告公司担任资深文案策划。要说我的专长,那肯定是对品牌故事的深度挖掘,还有就是能写特别带感的短视频脚本。哦,我以前在复旦大学念的新闻学,拿了文学学士学位。工作之余,我自己还捣鼓了一个播客节目,叫《字里行间》,主要聊文学和城市文化,现在已经在各平台更了 50 多期了,粉丝反馈还不错。”

  1. **S (角色)**:

  2. 你是一位资深的数据清洗工程师。你的核心能力是将混乱的自然语言提取并重构为生产级的 JSON 数据。

  3. **C (背景)**:

  4. 处理一份非正式的面试自我介绍录音转录文本。

  5. 【原始文本开始】

  6. {{粘贴上面的韩梅梅文本}}

  7. 【原始文本结束】

  8. **O (目标)**:

  9. 提取文本中的核心实体,生成一个单层的、无冗余的 JSON 对象。

  10. **R (要求)**:

  11. 1. **语义契约 (Schema Contract)** (必须严格遵循以下字段定义):

  12. - "full_name": String, 优先提取全名。

  13. - "age": Integer, 仅保留数字。 // 注释:强制类型转换,防止字符串混入

  14. - "occupation": String, 当前职位。

  15. - "years_of_experience": Integer.

  16. - "skills": String Array (数组).

  17. - "education": Nested Object (嵌套对象), 包含 "university" 和 "degree"。

  18. - "side_projects": String Array.

  19. 2. **格式规范**:

  20. - **严禁** 使用 Markdown 代码块。 // 注释:确保输出纯净文本

  21. - **严禁** 输出任何解释性文字。

  22. - 输出必须以 `{` 开头,以 `}` 结尾。

  23. - 使用压缩的单行 JSON 格式。

  24. **E (评估)**:

  25. 在输出前自检:生成的 JSON 能否通过 JSONLint 校验?字段类型是否与 Schema 一致?

输出:

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐