在这里插入图片描述

1. 引言:AI 从"文本生成"到"数字员工"的范式革命

人工智能发展已进入下半场,核心演进路径清晰可总结:

规则对话 → 生成式AI → AI 智能体(Agent)

AI Agent 不再是被动应答的机器人,而是具备自主规划、多步推理、外部工具调用、长时任务执行数字员工——它可以像真人一样,独立完成"查询 GitHub Issue 状态 → 分析数据 → 生成报告 → 同步到 Slack"的全流程,无需人类反复干预。这也是当前企业数字化转型的核心诉求:用 AI 替代重复性工作,释放人力价值。

《12-Factor Agents》核心原则:智能体本质是标准化软件,必须遵循软件工程规范,而非不可控的黑箱。就像我们日常使用的办公软件,只有标准化、可复用、可维护,才能大规模落地应用,AI Agent 也不例外。

但现实中,企业级 Agent 落地却屡屡碰壁,背后藏着 3 个致命痛点:

  • 内部系统、数据库、第三方 SaaS 接口无统一接入标准——就像不同品牌的设备用不同充电接口,GitHub、Slack、企业 ERP 系统,每个都要单独适配,开发成本翻倍。

  • 每个工具都要手写适配器、硬编码 Prompt,开发效率极低——开发一个能调用 5 个工具的 Agent,大量时间都在写适配代码,而非聚焦核心业务逻辑。

  • 工具越多,上下文爆炸、Token 成本飙升、维护崩溃——工具 Schema 全量硬编码进 Prompt,不仅推理变慢,后续工具升级还要全量改代码、重新发版。

正是为了解决这些痛点,Anthropic 推出模型上下文协议(Model Context Protocol, MCP),并联合主流 AI 生态共同推广。它就像 AI 生态的"USB-C 接口",彻底打破工具集成的壁垒,让 AI Agent 开发进入标准化时代。

核心定位:MCP = AI 生态的 USB-C 统一接口,可以类比为"LLMs 的 REST APIs"——就像 REST 用标准化的、基于 JSON 的 HTTP 标准统一了微服务通信,MCP 对 AI 系统也做了类似的事,为大语言模型访问外部工具、数据源提供了通用的标准化协议层。

  • 即插即用,无需定制开发——MCP 让工具集成无需手写适配器,显著降低开发成本。

  • 一套协议兼容所有模型、所有工具——Claude、Qwen 等主流模型,GitHub、Slack、企业数据库等各类工具,只需一套 MCP 协议,就能无缝对接。

  • 彻底终结"工具集成地狱"——让开发者从繁琐的适配工作中解放出来,专注于 Agent 的业务逻辑和体验优化。


2. 基础前置:传统 Tool Calling 完整机制与痛点

2.1 什么是 Tool Calling?

大语言模型无真实执行能力,本质上是"只会思考、不会动手"的"大脑",只能输出结构化 JSON 指令,再由宿主应用"翻译"这些指令,调用外部工具(API、数据库、软件)完成实际操作。这个"大脑指挥、手脚执行"的过程,就是 Tool Calling(工具调用)。

主流基座模型推荐:Qwen2.5-Coder-7B-Instruct,在结构化输出和函数调用方面表现出色,兼顾性能和成本,适合中小企业和开发者入门 Tool Calling。

2.2 传统工具调用全流程时序图

外部工具/API/DB 大语言模型(LLM) 宿主应用(Host) 外部工具/API/DB 大语言模型(LLM) 宿主应用(Host) 用户 下达任务指令(例:查询GitHub Issue状态) 拼接上下文+硬编码工具Schema定义 推理判断是否需要调用工具 返回结构化JSON(工具名+参数) 执行API请求/函数 返回原始数据 将执行结果加入上下文 生成自然语言回答 输出最终答案 用户

结合时序图,用一个通俗场景理解:你让 AI 查询某个 GitHub Issue 的状态,传统 Tool Calling 就像"你指挥助理干活,还要手把手教他怎么用工具"——助理要先把"怎么打开 GitHub、怎么输入 Issue 编号"的步骤(工具 Schema)详细写下来,交给大脑(LLM)推理后执行。每学一个新工具,都要你重新教一遍,效率极低。

2.3 传统模式致命工程痛点(架构级)

  1. 硬编码耦合:工具 Schema 写死在 Prompt/代码中,变更即发版——工具参数一旦修改,所有关联代码都要改,运维成本极高。

  2. 上下文爆炸:工具数量增加时,全量 Schema 注入导致 Token 消耗急剧上升,推理效率下降。

  3. 无复用性:为 Claude 写的工具适配代码,换用其他模型后只能全部重写,重复劳动严重。

  4. 错误不可自愈:工具调用返回 HTTP 状态码(404/500),LLM 无法理解,任务直接中断,需人工排查。

  5. 安全风险高:API Key 明文暴露在运行环境中,存在数据泄露和恶意调用风险。


3. MCP 核心架构:彻底解耦的标准化体系

3.1 MCP 官方标准架构图(分层详解)

资源层 Resource Layer

服务层 Server Layer

传输层 Transport Layer

MCP 协议层 Protocol Layer

应用层 Application Layer

Host 宿主应用
Claude Desktop | Cursor | 企业Agent平台

用户交互/业务流程控制

MCP Client
连接管理 | 工具发现 | 调用转发

JSON-RPC 2.0 标准协议

Stdio 本地传输

Streamable HTTP 远程传输(推荐)

MCP Server - 本地资源
文件系统/数据库/内部服务

MCP Server - SaaS服务
GitHub/Slack/Stripe/邮件

本地DB/文件

第三方SaaS API

:MCP 规范于 2025-03-26 更新,将原有的 HTTP+SSE 传输方式升级为 Streamable HTTP,新项目应优先采用。

这张架构图可以用"快递系统"类比理解:应用层(Host)是你(用户);MCP 协议层是快递网点,负责统一打包(标准化调用);传输层是快递运输方式(同城闪送/异地物流);服务层是快递驿站,对接不同目的地;资源层就是你要寄达的地址(工具/数据)。整个流程标准化、模块化,各环节互不干扰。

3.2 MCP 四大核心组件职责

① Host(宿主)

入口载体,负责用户交互、任务编排、决策汇总,相当于"总指挥官"。接收用户的任务需求,协调 MCP 客户端与 LLM 的协作,最终将整理好的结果反馈给用户。典型案例:Claude Desktop、Cursor 编辑器。

② MCP Client(客户端)

协议入口,管理连接、自动发现工具、统一转发调用请求,相当于"分拣员"。负责与 MCP 服务端建立连接,自动识别可用工具(无需手动配置),将宿主的调用请求标准化后转发给对应服务端,并整理返回结果反馈给宿主。

③ MCP Server(服务端)

工具提供者,对接真实资源,暴露标准化能力,相当于"快递驿站"。每个服务端对应一类或多类工具,将工具的功能与参数标准化供客户端调用,并负责执行实际操作。值得注意的是,MCP 服务端可以将工具实现为无状态函数,这些函数本身也可以是智能体,从而构建动态的多层次体系。

④ Transport(传输层)

  • Stdio:本地 IDE 插件、桌面端使用(轻量、低延迟),适合本地开发调试,相当于"同城闪送"。

  • Streamable HTTP:企业级远程方案(支持指令与流式状态返回),适合云端多终端部署,相当于"异地物流"。这是 MCP 2025-03-26 规范推荐的远程传输方式,已取代旧版 HTTP+SSE。

3.3 MCP 核心设计理念

MCP 不修改 LLM 推理逻辑,只做一件事:

将工具的「定义 - 发现 - 执行 - 反馈」全流程标准化、解耦化

将传统模式中"手写适配器、硬编码 Schema"的繁琐步骤全部标准化,让宿主、LLM、工具之间实现"松耦合"——宿主不用关心工具怎么实现,LLM 不用关心工具的详细定义,工具不用关心被哪个模型调用,只要遵循 MCP 协议,就能无缝协作。


4. MCP 工作全流程:从工具发现到任务闭环

Resource LLM Server Client Host Resource LLM Server Client Host alt [调用失败(参数错误)] User 启动并初始化MCP客户端 建立连接(Stdio/Streamable HTTP) 连接确认 发送工具发现请求(tools/list) 返回工具元数据(Schema/描述/参数) 缓存工具列表(无需注入Prompt) 发起任务(查询GitHub Issue) 仅注入核心上下文(无大量Schema) 返回工具调用指令 转发调用请求 MCP协议调用工具(tools/call) 执行真实API/DB操作 返回数据 语义化结果/错误返回 整理结果 返回语义化错误 错误信息自动回填 修正参数重新调用 输出最终答案 User

结合时序图,用"查询 GitHub Issue"的场景完整拆解 MCP 工作流程:

  1. 初始化连接:宿主启动 MCP 客户端,客户端自动与 GitHub 对应的 MCP 服务端建立连接,服务端返回确认。

  2. 动态工具发现:客户端向服务端发送 tools/list 请求,服务端返回工具元数据(功能、参数要求),客户端缓存工具列表,无需硬编码进 Prompt。

  3. 用户任务发起:用户向宿主下达"查询 anthropics/model-context-protocol 仓库第 10 个 Issue 状态"的任务。

  4. 极简推理:宿主只向 LLM 注入核心上下文,不携带任何工具 Schema,LLM 快速推理后返回"调用 get_issue_status 工具"的指令。

  5. 协议调用:宿主将调用指令转发给客户端,客户端按 MCP 协议(JSON-RPC 2.0)标准化处理请求,转发给服务端;服务端调用 GitHub API 查询,整理成语义化结果返回。

  6. 自愈机制:若参数错误(如 issue_number 传入字母),服务端返回语义化错误(“参数 issue_number 格式错误,应为数字”),LLM 自动修正参数,重新发起调用,无需人工干预。

  7. 最终响应:宿主将整理好的结果反馈给用户,任务闭环完成。


5. 深度对比:MCP vs 传统 Tool Calling(架构级)

对比维度 传统硬编码 Tool Calling MCP 模型上下文协议
工具发现方式 手动硬编码到 Prompt/代码,新增工具需改代码 客户端自动动态发现(tools/list),新增工具无需改核心代码
上下文占用 全量注入工具 Schema,工具数量增加时 Token 消耗急剧上升 按需加载工具元数据,大幅降低上下文占用
集成开发成本 每个工具定制适配器,开发周期长,重复劳动多 插件式即插即用,无需重复适配
跨模型兼容 不支持,Claude 适配的工具,其他模型需重写 一套 Server 兼容所有支持 MCP 的模型
错误处理 原生状态码(404/500),LLM 无法理解,任务直接中断 语义化反馈,LLM 可自动修正参数,实现任务自愈
安全合规 API Key 明文暴露,存在泄露风险 支持 OAuth 2.0 权限体系、PII 敏感数据掩码,权限最小化
可维护性 高耦合,工具升级需全量改代码、重新发版 解耦设计,工具升级可热更新,不中断服务
生产级可观测性 无追踪链路,工具调用报错后排查难度大 支持 TraceID 全链路日志,调用过程可追溯、可监控

补充:MCP 与 ACP、A2A 等其他智能体协议的区别

三者定位完全不同,勿混淆:

  • MCP:专注"工具整合和发现",低复杂度,通过把工具看作简单函数,支持动态发现,优势在于标准化和促进工具调用;
  • A2A(Agent-to-Agent):针对高级的智能体间通信和编排,高复杂度,专为复杂多智能体工作流设计,包含强大的状态管理和智能体级凭证;
  • ACP(Agent Communication Protocol):优先考虑智能体互操作性和市场功能,中等复杂度,通过智能体目录进行发现,支持灵活的智能体交互。

简单说:MCP 简化工具访问,A2A 编排复杂智能体团队,ACP 促进广泛的智能体发现和交互,三者各司其职,可根据业务需求搭配使用。


6. MCP 三大技术支柱(深度专业版)

6.1 动态发现(Dynamic Discovery)

对应《12-Factor Agents》Factor 10:微智能体,核心是"让 Agent 自主找到可用工具,而非被动接收工具定义"。

  • 初始化 Prompt 极简,不携带任何工具定义——工具定义由客户端通过 tools/list 动态获取,极大精简 Prompt 长度。

  • Agent 执行任务时主动发现可用工具——MCP 客户端可自动更新工具列表,即使新增或删除工具,Agent 也能实时感知,无需重启服务或修改代码。

  • 支持大规模工具池——对于企业级场景,往往需要调用大量工具。MCP 按需加载工具元数据,能够支撑更大规模的工具集,而不会因全量注入导致上下文爆炸。

6.2 语义化反馈与自愈能力(Self-Healing)

对应《12-Factor Agents》Factor 09:错误压缩,核心是"让 LLM 能理解错误、修正错误,实现无人值守的任务执行"。

  • 传统错误HTTP 404 Not Found → LLM 无法理解,只能直接报错,任务中断。

  • MCP 错误参数 repo 格式错误,应为 owner/repo → 语义化错误提示,LLM 能直接理解并修正。

  • LLM 可自动解析错误、修正参数、重新调用——实现无人值守的任务自愈,大幅降低运维成本。

6.3 上下文极致优化(Context Efficiency)

相较于全量硬编码 Schema 的传统方式,MCP 按需加载工具元数据,在工具数量较多的场景下,可显著降低上下文占用和 Token 消耗。

说明:原文引用的"Token 消耗降低 98%“数据源自"MCP-Zero 论文”,但 MCP-Zero 是一篇研究无训练工具调用的论文,与 MCP 协议的 Token 效率并非同一概念,两者不宜混用。实际节省幅度取决于工具数量、工具 Schema 复杂度等因素,建议结合自身业务场景实测评估。

  • 只在需要时加载工具元数据——MCP 客户端缓存所有工具的元数据,但只有 LLM 决定调用某个工具时,才将该工具的元数据注入上下文,避免冗余信息干扰。

  • 模型注意力聚焦核心任务——传统模式中,LLM 需要花费大量注意力解读工具 Schema,容易出现参数混淆、调用错误;MCP 让 LLM 专注于用户任务本身,调用决策更精准。


7. 企业架构选型指南:什么时候用MCP?

场景1:私有逻辑+极少变更

场景2:第三方SaaS集成

场景3:跨模型复用工具

场景4:长时复杂任务

场景5:平台化生态

开始选型

业务场景判断

使用传统ToolCalling

使用MCP

内部高敏感服务

单步固定函数

边缘低算力设备

GitHub/Slack/Stripe等

多模型通用调用

支持暂停/恢复/跨会话

企业级平台/开放生态

MCP 并非万能,选型的核心是"匹配业务需求"。

适合用传统 Tool Calling 的场景:

  1. 内部高敏感服务——企业核心数据库、涉密系统,工具调用逻辑固定,不允许外部协议接入,传统硬编码调用更安全、更轻量。

  2. 单步固定函数——只需调用一个工具、执行一个固定操作(如"查询当前时间"),工具参数不会变更,传统调用更简单。

  3. 边缘低算力设备——物联网设备、嵌入式系统,算力有限,传统 Tool Calling 更轻量化,适合低算力场景。

必须用 MCP 的场景(MCP 的核心应用场景):

  1. 第三方 SaaS 集成——需要调用 GitHub、Slack、Stripe 等多种第三方工具,MCP 可实现统一接入,无需分别适配。

  2. 跨模型复用工具——企业同时使用多种模型,希望一套工具能被所有模型调用,MCP 是工业级的标准化解决方案。

  3. 长时复杂任务——Agent 需自主完成多步操作、持续执行,MCP 的自愈能力和可观测性确保任务稳定运行。

  4. 平台化生态——企业搭建 AI Agent 平台供多团队使用,MCP 可实现工具即插即用,快速丰富平台功能。

选型结论

  • 私有闭环、极简任务 → 原生调用更轻量,无需过度设计
  • 第三方集成、跨团队、平台化MCP 是工业级首选方案,能解决集成、安全、可观测三大核心痛点

8. 落地实战:可直接运行的 MCP 完整代码

本节提供一套生产级 MCP 代码示例,包含 Server 端(对接 GitHub 工具)和 Client 端(集成进 Agent),注释详细,适合快速上手。

8.1 环境安装

# 安装官方标准 SDK(推荐 Python 3.10+)
pip install -U "mcp[cli]" requests

# 升级 pip 避免版本兼容问题
pip install --upgrade pip

国内用户可使用镜像源加快安装:pip install -U "mcp[cli]" requests -i https://mirrors.aliyun.com/pypi/simple/

8.2 生产级 MCP Server(GitHub工具)

from mcp.server.fastmcp import FastMCP
import requests

# 初始化服务(名称会被 Client 自动发现)
mcp = FastMCP(
    name="GitHub-MCP-Service",
    version="1.0.0",
    description="GitHub Issue 查询 MCP 标准化服务"
)

# 装饰器自动注册为 MCP 工具,无需手动定义 Schema
@mcp.tool()
def get_issue_status(owner: str, repo: str, issue_number: int) -> str:
    """
    查询指定 GitHub 仓库的 Issue 状态(LLM 自动理解工具描述)

    参数:
        owner: 仓库所有者用户名(必填,例:anthropics)
        repo: 仓库名称(必填,例:model-context-protocol)
        issue_number: Issue 数字编号(必填,例:10)

    返回:
        结构化状态信息 / 语义化错误提示(LLM 可直接解析)
    """
    url = f"https://api.github.com/repos/{owner}/{repo}/issues/{issue_number}"

    try:
        # 发起 GitHub API 请求,设置超时时间避免任务阻塞
        # 生产环境建议配置 GitHub Token,避免触发频率限制
        # headers = {"Authorization": "Bearer 你的GitHub_Token"}
        resp = requests.get(url, timeout=15)
        resp.raise_for_status()
        data = resp.json()

        return (
            f"Issue #{issue_number}\n"
            f"标题:{data.get('title', '未获取到标题')}\n"
            f"状态:{data.get('state', '未知')}\n"
            f"创建者:{data.get('user', {}).get('login', '未知')}\n"
            f"创建时间:{data.get('created_at', '未获取到时间')}"
        )
    except requests.exceptions.HTTPError as e:
        status_code = e.response.status_code if e.response is not None else "未知"
        if status_code == 404:
            return "执行失败:未找到该 Issue,请检查 owner、repo 或 issue_number 是否正确"
        elif status_code == 403:
            return "执行失败:GitHub API 权限不足或触发频率限制,请配置 GitHub Token"
        else:
            return f"执行失败:HTTP {status_code} 错误,请稍后重试"
    except requests.exceptions.Timeout:
        return "执行失败:请求超时,请检查网络连接或稍后重试"
    except Exception as e:
        return f"执行失败:{str(e)}。请检查网络连接,或确认参数格式正确"

if __name__ == "__main__":
    # 本地调试:stdio 模式,适合开发测试
    # mcp.run(transport="stdio")

    # 企业生产:Streamable HTTP 远程部署(MCP 2025-03-26 规范推荐)
    # 注意:旧版 HTTP+SSE 已被 Streamable HTTP 取代
    mcp.run(
        transport="streamable-http",
        host="0.0.0.0",
        port=8866,
        path="/api/mcp"  # 接口路径,方便反向代理和权限控制
    )

补充说明

  1. 生产环境部署时,强烈建议配置 GitHub Token(在 requests.get 中添加 Authorization Header),未认证调用有严格的频率限制(每小时 60 次);
  2. 可根据需求新增更多工具(如"创建 Issue"“关闭 Issue”),只需用 @mcp.tool() 装饰器注册即可,无需修改其他代码;
  3. 具体传输参数以当前版本 FastMCP 文档为准,可通过 mcp --help 查看。

8.3 MCP Client 调用示例(可直接集成进Agent)

import asyncio
from mcp import ClientSession
from mcp.client.streamable_http import streamablehttp_client

async def mcp_client_demo():
    # 连接远程 MCP Server(Streamable HTTP 传输方式)
    # 本地调试时将 URL 改为 "http://127.0.0.1:8866/api/mcp"
    async with streamablehttp_client("http://127.0.0.1:8866/api/mcp") as (read, write, _):
        async with ClientSession(read, write) as session:
            # 初始化连接
            await session.initialize()

            # 1. 自动发现所有可用工具(无需手动配置工具列表)
            tools_result = await session.list_tools()
            print("=== 自动发现的 MCP 工具 ===")
            for tool in tools_result.tools:
                print(f"- 工具名:{tool.name}")
                print(f"  描述:{tool.description}")
                print(f"  参数:{tool.inputSchema}\n")

            # 2. 调用 GitHub Issue 查询工具
            result = await session.call_tool(
                name="get_issue_status",
                arguments={
                    "owner": "anthropics",
                    "repo": "model-context-protocol",
                    "issue_number": 10
                }
            )

            print("=== 工具执行结果 ===")
            for content in result.content:
                print(content.text)

if __name__ == "__main__":
    asyncio.run(mcp_client_demo())

补充说明

  1. 客户端采用异步编程,可集成进 FastAPI、Django 等 Web 框架,实现多用户并发调用;
  2. 若服务端使用 stdio 传输(本地调试),Client 端需改用 mcp.client.stdio.stdio_client
  3. 参数错误会返回语义化提示,可在代码中添加异常捕获,让 Agent 自动重试。

8.4 调试神器:MCP Inspector

MCP Inspector 是官方提供的可视化调试工具,无需启动 LLM,直接测试 Client ↔ Server 通信。

# 通过 npx 直接运行(需要 Node.js 18+,无需单独安装)
npx @modelcontextprotocol/inspector

启动后,在浏览器访问 http://localhost:5173,即可进入可视化调试界面。

核心功能

  • 校验工具发现(tools/list)是否正常返回工具元数据;
  • 模拟工具调用,校验返回结果的格式和语义化程度;
  • 多团队协作时,可快速定位问题(客户端调用错误 / 服务端执行错误 / 工具本身问题),减少沟通成本。

注意:MCP Inspector 是 Node.js 工具,通过 npx 运行,不是 Python pip 包,不要使用 pip install mcp[inspector] 安装。


9. MCP 企业级核心优势(总结图表)

MCP企业价值

标准化

USB-C统一接口

全平台兼容

工业级规范

工程效率

即插即用

无硬编码

热更新

成本优化

上下文占用显著降低

开发成本大幅降低

维护成本低

安全合规

PII敏感数据掩码

OAuth2权限体系

数据不出域

可观测性

TraceID全链路

调用日志可追溯

黑盒推理变透明

自愈能力

语义化错误

参数自动修正

无人值守执行

结合图表,总结 MCP 的企业级核心价值:

  1. 标准化:一套协议通吃所有支持 MCP 的模型、工具、平台,打破"各自为战"的局面,让 AI Agent 能快速集成各类资源。

  2. 工程效率:工具即插即用,无需重复开发,热更新无侵入,大幅缩短项目上线周期。

  3. 成本优化:按需加载工具元数据,显著降低上下文占用;开发和维护成本大幅降低,中小企业也能负担,让 AI Agent 大规模落地成为可能。

  4. 安全合规:OAuth 2.0 权限体系、PII 敏感数据掩码,确保工具调用安全,符合企业合规要求,适合金融、医疗等敏感行业。

  5. 可观测性:TraceID 全链路日志,让工具调用的每一个环节都可追溯、可监控,快速排查问题,降低运维成本。

  6. 自愈能力:语义化错误反馈 + 自动重试,实现无人值守的任务执行,让 AI Agent 能独立完成长时复杂任务。


10. 最终总结:MCP 重新定义 AI Agent 开发

  1. MCP 是 AI 工具生态的统一标准,如同 USB-C 统一电子设备接口,填补了大语言模型与外部工具通信的标准化空白,让不同厂商、不同类型的工具、模型、平台能无缝协作。

  2. 核心价值是解耦:工具定义、执行、宿主应用完全分离,彻底解决传统 Tool Calling 的高耦合、低效率、高成本痛点,让 AI Agent 开发从"手工作坊"进入"工业标准化时代"。

  3. 企业级场景首选:尤其适合第三方 SaaS 集成、跨模型复用工具、长时复杂任务、平台化生态等场景,是 AI Agent 大规模落地的核心支撑。

  4. 生态持续扩展:越来越多的 AI 平台和工具在接入 MCP 协议,生态正在快速成长。对于具体平台(如 OpenAI、各云厂商)的 MCP 支持现状,建议查阅对应官方文档获取最新信息,避免依赖可能过时的描述。

MCP 标志着 AI Agent 从「手工作坊时代」正式进入「工业标准化时代」——它不仅是一个技术协议,更是一种新的开发理念,让 AI Agent 的开发更简单、更高效、更低成本,让更多企业能借助 AI Agent 实现数字化转型,释放人力价值。

最后补充:MCP 目前处于快速迭代阶段,协议功能持续完善,传输层等核心机制已在 2025 年发生重要更新。建议开发者持续关注 MCP 官方文档GitHub 仓库,以获取最新规范和 SDK 更新。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐