3、LangChain 5 分钟手搓你的第一个智能体
·
文章目录
一、LangChain 概述
LangChain 是一个开源框架,专为构建由大语言模型(LLMs)驱动的自定义智能体和应用程序设计。其核心价值在于:
- 简化 LLM 集成:仅需不到 10 行代码,即可连接 OpenAI、Anthropic、Google 等主流平台
- 预制智能体架构:提供开箱即用的 agent 设计模式,无需从零搭建
- 无缝扩展能力:支持工具集成、上下文管理、流式传输等关键功能
- 生态兼容:与 LangGraph、LangSmith 等工具深度协同,覆盖从开发到部署全流程
官方定位:快速构建智能体和自主应用的「快车道」,降低 LLM 落地门槛。
二、快速入门:5 分钟创建第一个智能体
1. 安装依赖
# 安装 LangChain 及 Anthropic 集成包
pip install -qU langchain "langchain[anthropic]"
2. 完整示例代码
from langchain.agents import create_agent
# 定义工具函数(示例:获取天气)
def get_weather(city: str) -> str:
"""Get weather for a given city.(获取指定城市天气)"""
return f"It's always sunny in {city}!" # 示例返回,实际可对接真实天气 API
# 创建智能体
agent = create_agent(
model="claude-sonnet-4-6", # 模型名称(支持 OpenAI/Anthropic 等)
tools=[get_weather], # 绑定工具函数
system_prompt="You are a helpful assistant(你是一个乐于助人的助手)",
)
# 运行智能体
result = agent.invoke(
{"messages": [{"role": "user", "content": "what is the weather in sf(旧金山天气如何)"}]}
)
print(result)
# 输出:It's always sunny in sf!
3. 下一步
- 详细安装指南:LangChain 官方安装文档
- 快速入门教程:LangChain Quickstart
- 调试工具:使用 LangSmith 追踪请求、调试行为(需设置环境变量
LANGSMITH_TRACING=true并配置 API 密钥)
三、LangChain 核心优势
1. 标准模型接口(Standard model interface)
- 问题:不同 LLM 提供商(OpenAI/Anthropic/Google)的 API 格式不一致,切换成本高
- 解决方案:LangChain 标准化交互方式,无缝替换模型提供商,避免 vendor lock-in(供应商锁定)
- 详情:LangChain 模型集成文档
2. 易用且灵活的智能体(Easy to use, highly flexible agent)
- 低门槛:10 行代码构建基础智能体
- 高扩展性:支持自定义上下文工程、工具链、工作流
- 详情:LangChain 智能体文档
3. 基于 LangGraph 构建(Built on top of LangGraph)
- 核心能力:持久执行、流式传输、人机协作(Human-in-the-loop)、状态持久化
- 优势:无需了解 LangGraph 即可使用基础功能,进阶场景可深度定制
- 详情:LangGraph 官方文档
4. LangSmith 调试支持(Debug with LangSmith)
- 可视化工具:追踪执行路径、捕捉状态转换、查看运行时指标
- 核心价值:降低复杂智能体的调试难度,提升开发效率
- 详情:LangSmith 官方文档
四、LangChain vs. LangGraph vs. Deep Agents 对比
| 工具 | 定位 | 核心场景 | 推荐人群 |
|---|---|---|---|
| Deep Agents | 「电池内置」的智能体(Batteries-included) | 快速开发生产级智能体,需长对话压缩、虚拟文件系统等功能 | 追求开发效率,无需深度定制的用户 |
| LangChain | 通用智能体框架 | 自定义智能体/应用,平衡易用性和扩展性 | 大多数开发者(入门到进阶) |
| LangGraph | 低级智能体编排框架+运行时 | 复杂工作流(确定性+智能体混合)、深度定制 | 高级开发者、复杂场景需求者 |
关键说明:
- Deep Agents 是 LangChain Agents 的具体实现,内置高级功能
- LangChain Agents 基于 LangGraph 构建,继承其核心能力
- 选择逻辑:先从 Deep Agents 尝试,需定制化则切换到 LangChain,复杂场景再用 LangGraph
五、核心组件与功能模块
1. 核心组件(Core components)
- Agents(智能体):决策与工具调用核心
- Models(模型):LLM/嵌入模型集成
- Messages(消息):对话交互标准化
- Tools(工具):外部工具集成(API/数据库等)
- Short-term memory(短期记忆):对话上下文管理
- Streaming(流式传输):实时输出响应
- Structured output(结构化输出):格式化结果返回
2. 中间件(Middleware)
- 预构建中间件:Prebuilt middleware
- 自定义中间件:Custom middleware
3. 前端支持(Frontend)
- 前端集成方案:Frontend Overview
- 交互模式与集成案例
4. 高级用法(Advanced usage)
- Guardrails(护栏):内容安全与合规控制
- Runtime(运行时):执行环境优化
- Context engineering(上下文工程):提升 LLM 响应质量
- Model Context Protocol (MCP)(模型上下文协议):跨平台文档连接
- Human-in-the-loop(人在回路):人工干预与反馈
- Multi-agent(多智能体):协作完成复杂任务
- Retrieval(检索):外部知识检索
- Long-term memory(长期记忆):持久化记忆存储
六、开发与部署工具
1. 智能体开发
- LangSmith Studio:可视化开发环境
- Test(测试):智能体行为测试工具
- Agent Chat UI:开箱即用的聊天界面
2. 部署与可观测性
- Deployment:部署指南
- Observability:运行状态监控
七、相关资源
官方资源
社交平台
本文基于 LangChain 官方文档整理,如需获取最新信息,请访问 LangChain 官方文档。
如有疑问或补充,欢迎在评论区交流!
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)