系列说明:本系列全面介绍 OpenClaw 开源 AI 智能体框架,从历史背景到核心原理,从安装部署到应用生态。本文为系列第 026 篇,基于 OpenClaw v2026.3.23 正式将 DeepSeek 与 Qwen(通义千问)升级为一级 Provider 这一里程碑更新,提供两大国产大模型从零到生产的全链路接入指南,并附 8 大模型性能基准对比,帮助开发者做出最优的模型选型决策。


摘要

DeepSeek V3.2 和通义千问 Qwen 在 OpenClaw v2026.3.23 中正式升级为一级(First-Class)Provider,与 OpenAI、Anthropic、Google 并列,无需任何社区插件即可开箱即用。这对国内 AI Agent 开发者而言是一个重要里程碑:以旗舰模型价格 1/50 的成本,获得接近 GPT-4o 水准的工具调用能力。本文基于 OpenClaw v2026.3.23 官方文档、W3CSchool 中文教程及 Ofox 性能基准报告,提供 DeepSeek V3.2 的完整 Provider 配置实战、通义千问 Qwen 的按量付费接入步骤、国内网络环境的连通性优化方案、8 大模型性能与成本横向对比,以及混合模型路由策略——帮助团队以最优的性价比驱动生产级 AI Agent。


一、为什么国产大模型接入 OpenClaw 是 2026 年最重要的议题

1.1 成本革命:一场正在发生的范式迁移

OpenClaw 多模型架构(Multi-Model Architecture)是指 OpenClaw 通过可插拔的 Provider 插件层,将 AI Agent 的编排逻辑与底层模型推理完全解耦,使同一套工作流可以无缝切换任意兼容 OpenAI API 规范的大语言模型。

在 OpenClaw 的早期版本中,大多数中国用户面临一个"甜蜜的烦恼":OpenClaw 的能力毋庸置疑,但驱动它的 Anthropic Claude 或 OpenAI GPT 系列模型价格高昂。以一个日均处理 500 次复杂任务的企业 Agent 为例,使用 Claude Opus 4.6 的月均 Token 费用约为 $1,200–1,500 美元;而接入 DeepSeek V3.2 后,同等工作量的成本可以压缩至 $30–50 美元,降幅高达 96%(数据来源:Ofox AI 性能基准报告,2026-03-17)。

这不是简单的省钱,而是将 AI Agent 的部署门槛从"中大型企业专属"拉低到"任何开发者都能玩得起"。

1.2 v2026.3.23:国产模型正式"入编"

在 v2026.3.23 发布之前,DeepSeek 和 Qwen 的 OpenClaw 集成方案主要依赖社区维护的非官方插件或 OpenAI 兼容端点的手动适配,配置繁琐且稳定性参差不齐。根据掘金用户 @CloudArch 的记录(2026-03-11),此前配置 DeepSeek 时经常遭遇 Unknown provider: deepseekAnthropic Fallback 静默降级等令人沮丧的问题。

v2026.3.23 的核心变化是架构层面的:DeepSeek 和 Qwen 不再通过"假扮 OpenAI"的兼容层接入,而是作为独立 Provider 插件集成到 OpenClaw 的 ContextEngine 插件体系(参见第 025 篇)中,拥有自己的身份验证模块、速率限制管理器和流式传输处理器。这意味着:

  • 不再需要手动指定 baseURL 覆写
  • 模型名称不再需要通过 modelOverride 转义
  • 账单在 OpenClaw 仪表板中有独立的 DeepSeek / Qwen 标签页展示

1.3 国产模型生态的战略意义

从更宏观的视角看,OpenClaw 接入国产大模型不只是"用更便宜的 API"。根据 OpenClaw 官方博客(openclaws.io,2026-02-23)的分析,阿里云、DeepSeek、月之暗面等中国 AI 公司正在围绕 OpenClaw 构建本土生态:

  • 阿里云百炼:提供 OpenClaw on Alibaba Cloud 的托管方案,覆盖 19 个 Region(含国内区域),起步价 $4/月
  • Kimi Claw 平台:由月之暗面孵化,已汇聚 5,000+ 专用 Skill
  • OpenClaw 中国社区(open-claw.org.cn):专注于 DeepSeek 驱动的本地 Agent 基础设施,提供 pnpm 极速构建和数据安全优化方案

二、DeepSeek V3.2 接入 OpenClaw 全链路实战

2.1 什么是 DeepSeek Provider 插件

OpenClaw DeepSeek Provider 插件是 OpenClaw v2026.3.23 内置的官方集成模块,负责处理与 DeepSeek API(platform.deepseek.com)之间的身份验证、请求路由、速率限制和流式响应,支持 deepseek-chat(V3.2 标准对话模型)和 deepseek-reasoner(V3.2 思维链推理模型)两个模型。

DeepSeek V3.2 官方提供两个核心模型端点:

模型 ID 对应模型 上下文长度 适用场景
deepseek-chat DeepSeek V3.2 128K tokens 通用任务、代码生成、工具调用
deepseek-reasoner DeepSeek V3.2 思维链版 128K tokens 复杂数学推理、多步逻辑分析

2.2 前置准备:获取 DeepSeek API Key

  1. 访问 DeepSeek 开放平台 注册账号
  2. 进入「API Keys」菜单,点击「创建 API Key」
  3. 复制生成的 API Key(格式为 sk-xxxxxxxx),仅展示一次,务必保存
  4. 确认账户已充值或开通试用额度(新用户通常有免费试用 Token)

2.3 方式一:交互式引导配置(推荐新手)

OpenClaw 提供的 onboard 引导命令是最简便的配置入口:

# 以 DeepSeek API Key 模式启动引导
openclaw onboard --auth-choice deepseek-api-key

引导过程中,系统会依次询问:

? Select your AI Provider: DeepSeek (Recommended for CN)
? Enter your DeepSeek API Key: sk-xxxxxxxx
? Set as default model? (Y/n): Y
✓ DeepSeek provider configured. Default model: deepseek/deepseek-chat

引导完成后,OpenClaw 会自动将以下配置写入 ~/.openclaw/openclaw.json

{
  "defaultModel": "deepseek/deepseek-chat",
  "providers": [
    {
      "id": "deepseek",
      "auth": {
        "type": "api-key"
      }
    }
  ]
}

API Key 会被安全存储在系统密钥链(macOS Keychain / Windows Credential Manager / Linux Secret Service)中,不会明文写入配置文件。

2.4 方式二:非交互式配置(适合 CI/CD 和自动化部署)

在服务器环境或自动化部署场景下,使用非交互式参数:

openclaw onboard --non-interactive \
  --mode local \
  --auth-choice deepseek-api-key \
  --deepseek-api-key "$DEEPSEEK_API_KEY" \
  --skip-health \
  --accept-risk

对于 systemd 等守护进程管理的部署,需确保环境变量对进程可见:

# 方案 A:写入 .env 文件(推荐)
echo "DEEPSEEK_API_KEY=sk-xxxxxxxx" >> ~/.openclaw/.env

# 方案 B:通过 config set 命令
openclaw config set deepseek.apiKey "$DEEPSEEK_API_KEY"

2.5 方式三:手动编辑配置文件(适合高级用户)

直接编辑 ~/.openclaw/openclaw.json,添加或修改 providers 字段:

{
  "defaultModel": "deepseek/deepseek-chat",
  "providers": [
    {
      "id": "deepseek",
      "auth": {
        "type": "api-key"
      },
      "models": [
        {
          "id": "deepseek-chat",
          "name": "DeepSeek Chat (V3.2)",
          "context": 128000
        },
        {
          "id": "deepseek-reasoner",
          "name": "DeepSeek Reasoner (V3.2)",
          "context": 128000
        }
      ]
    }
  ]
}

2.6 验证 DeepSeek 配置

# 列出所有可用模型,确认 deepseek 相关模型出现在列表中
openclaw models list

# 发送一条测试消息
openclaw chat --model deepseek/deepseek-chat "你好,请用一句话介绍你自己"

# 查看当前 Provider 配置状态
openclaw config get providers

成功输出示例:

✓ deepseek/deepseek-chat    DeepSeek Chat (V3.2)    128K  [active]
✓ deepseek/deepseek-reasoner  DeepSeek Reasoner     128K  [active]

三、通义千问 Qwen 按量付费接入实战

3.1 什么是 Qwen(Alibaba Cloud Model Studio)Provider

OpenClaw Qwen Provider(正式名称:Alibaba Cloud Model Studio Provider)是 v2026.3.23 对通义千问系列模型的官方集成,弃用了早期基于 OAuth 的复杂授权流程,改为与 OpenAI/Anthropic 相同的 API Key 按量付费模式,支持 qwen-maxqwen-plusqwen-turbo 等全系模型。

Qwen 的接入在 v2026.3.23 中发生了两个重要变化:

  1. 名称正规化:提供商 ID 从 alibaba 正式更名为 qwen,对应 API 入口为阿里云百炼(Model Studio)平台
  2. 计费透明化:Token 用量直接显示在 OpenClaw 仪表板的"Qwen"标签页,无需登录阿里云控制台查询

3.2 Qwen 模型清单

模型 ID 描述 输入价格 输出价格 上下文
qwen-max 旗舰推理模型,中文能力最强 ¥0.04/千token ¥0.12/千token 128K
qwen-plus 均衡性价比,适合大多数场景 ¥0.008/千token ¥0.02/千token 128K
qwen-turbo 超快响应,适合简单对话任务 ¥0.003/千token ¥0.006/千token 1M

(价格数据来源:阿里云百炼官方定价页,2026-03-20)

3.3 获取阿里云 API Key

  1. 访问阿里云百炼控制台,使用阿里云账号登录
  2. 进入「模型广场」→「通义千问」→「API 调用」页面
  3. 点击「创建 API Key」,选择所需的模型权限范围
  4. 复制 API Key(格式为 sk-xxxxxxxx

国内区域与全球区域的 API 端点差异

区域 端点 适用场景
中国大陆 https://dashscope.aliyuncs.com/compatible-mode/v1 国内服务器/个人开发者
全球(含香港) https://dashscope-intl.aliyuncs.com/compatible-mode/v1 海外服务器

3.4 配置通义千问 Provider

# 交互式配置
openclaw onboard --auth-choice qwen-api-key

# 非交互式配置
openclaw config set qwen.apiKey "$QWEN_API_KEY"

# 设置默认模型为 qwen-plus(均衡性价比)
openclaw config set defaultModel qwen/qwen-plus

手动配置文件示例(~/.openclaw/openclaw.json):

{
  "defaultModel": "qwen/qwen-plus",
  "providers": [
    {
      "id": "qwen",
      "auth": {
        "type": "api-key"
      },
      "models": [
        {
          "id": "qwen-max",
          "name": "通义千问 MAX",
          "context": 128000
        },
        {
          "id": "qwen-plus",
          "name": "通义千问 PLUS",
          "context": 128000
        },
        {
          "id": "qwen-turbo",
          "name": "通义千问 Turbo",
          "context": 1000000
        }
      ]
    }
  ]
}

3.5 国内环境连通性优化

在国内服务器上部署 OpenClaw 时,连接 DeepSeek 或 Qwen 的 API 端点通常无需特殊网络配置。但部分云服务商的出口 IP 可能被 DeepSeek 平台限速,此时可通过以下方式优化:

# 配置 HTTP 代理(如果需要)
openclaw config set network.httpProxy "http://your-proxy:port"

# 配置超时时间(默认 30s,高并发场景建议调长)
openclaw config set network.requestTimeout 60000

# 配置重试次数(默认 2 次)
openclaw config set network.maxRetries 3

对于 DeepSeek,也可以通过中转端点(如 NVIDIA NIM 免费额度、OpenRouter)间接接入,在网络不稳定时作为备用链路。


四、8 大模型性能基准对比:如何为你的 Agent 选型

4.1 测试方法论

以下基准数据来源于 Ofox AI 性能报告(2026-03-17),测试平台为 OpenClaw v2.4,通过 Ofox 统一 API 接入,覆盖 8 个主流模型,评分维度及权重如下:

  • 推理能力(25%):数学计算、逻辑推导、因果分析
  • 代码生成(25%):函数生成、Bug 修复、代码重构
  • 工具调用(20%):单工具调用准确率、多工具编排能力
  • 响应速度(15%):首 Token 延迟、吞吐量(tokens/秒)
  • 成本(15%):输入/输出 Token 单价的性价比评分

4.2 综合排名

排名 模型 综合评分 性价比 最适场景
🥇 1 GPT-5.4 9.2 ★★☆ 旗舰任务,预算充足
🥈 2 Claude Opus 4.6 9.0 ★★☆ 长文档分析、复杂推理
🥉 3 Gemini 3 Pro 8.5 ★★★ 多模态任务
4 Claude Sonnet 4.6 8.0 ★★★ 均衡通用,主力模型
4 DeepSeek V3.2 8.0 ★★★★★ 经济型主力,中文任务
6 GPT-4o 8.0 ★★★ 工具调用场景
7 Qwen3.5 7.7 ★★★★ 中文内容创作,简单任务
8 Gemini 3 Flash 7.7 ★★★★ 高并发、超快响应

4.3 DeepSeek V3.2 深度分析

DeepSeek V3.2 在本次测试中以综合评分 8.0 并列第四、性价比排名第一的成绩脱颖而出。

优势维度

  • 数学推理(8.5/10):在多步数学计算任务中超过了 GPT-4o(8.0/10),这与 DeepSeek 训练数据中大量数学语料的积累高度相关
  • 成本(9.5/10):输入 $0.27/百万 tokens、输出 $1.10/百万 tokens,是旗舰模型的 1/50
  • 中文理解:深度中文语料训练带来的天然优势,在中文 Agent 场景下表现明显优于非中文原生模型

短板维度

  • 复杂工具编排(7.5/10):当 Agent 需要同时调用 3 个以上工具并处理跨工具的数据传递时,参数遗漏和调用顺序错误的概率约为 12%(Claude Sonnet 4.6 同场景约为 4%)
  • 创意写作:在开放式创意任务中倾向于生成结构化程度过高的内容,缺乏"灵性"

推荐配置(参见第 011 篇多模型配置的路由策略):

{
  "routing": {
    "rules": [
      {
        "condition": "task.type == 'math' || task.type == 'analysis'",
        "model": "deepseek/deepseek-reasoner"
      },
      {
        "condition": "task.type == 'code' || task.type == 'general'",
        "model": "deepseek/deepseek-chat"
      },
      {
        "condition": "task.complexity == 'high' && task.toolCount > 3",
        "model": "anthropic/claude-sonnet-4-6",
        "fallback": "deepseek/deepseek-chat"
      }
    ]
  }
}

4.4 Qwen3.5(通义千问)深度分析

通义千问 Qwen3.5 以综合评分 7.7 位列第七,与 Gemini 3 Flash 持平,性价比排名第四。

优势维度

  • 中文内容创作:在中文写作、中文摘要、中文 Q&A 场景下,Qwen3.5 的评分优于 GPT-4o 约 8%
  • 阿里生态协同:与飞书、钉钉、阿里云函数计算的原生集成能力无可替代(参见第 010 篇渠道接入
  • 超长上下文qwen-turbo 1M tokens):在需要处理超长文档的场景中,Qwen Turbo 的百万 Token 上下文是目前最具性价比的选项

短板维度

  • 工具调用(7.0/10):多工具编排的稳定性是 Qwen3.5 最明显的短板,在 3 工具以上的并发调用场景中错误率约为 18%
  • 代码重构:在大型代码重构任务中,输出质量明显低于 Claude 系列

五、混合模型路由策略:让国产模型无缝接管 80% 的工作量

5.1 战略思路:分层模型调度

真正实现高性价比的 AI Agent,不是简单地把所有任务都交给一个便宜模型,而是根据任务特征动态路由到最合适的模型。一个经过验证的生产级路由策略如下:

┌─────────────────────────────────────────────┐
│              OpenClaw 任务路由层              │
├──────────┬──────────────┬───────────────────┤
│ 简单任务  │  中等任务     │     复杂任务       │
│ Qwen-    │  DeepSeek   │  Claude Sonnet /  │
│ Turbo    │  V3.2 Chat  │  GPT-4o           │
│ ¥0.003/K │  $0.27/1M   │  $3.0/1M+         │
├──────────┴──────────────┴───────────────────┤
│     估算:80% 任务 → 国产模型,降本 90%+       │
└─────────────────────────────────────────────┘

5.2 基于任务类型的路由配置

~/.openclaw/openclaw.json 中配置智能路由规则:

{
  "providers": [
    { "id": "deepseek", "auth": { "type": "api-key" } },
    { "id": "qwen", "auth": { "type": "api-key" } },
    { "id": "anthropic", "auth": { "type": "api-key" } }
  ],
  "defaultModel": "deepseek/deepseek-chat",
  "routing": {
    "enabled": true,
    "rules": [
      {
        "name": "中文内容任务 → Qwen Plus",
        "condition": "message.language == 'zh' && task.type == 'writing'",
        "model": "qwen/qwen-plus"
      },
      {
        "name": "超长文档 → Qwen Turbo(百万上下文)",
        "condition": "context.tokenCount > 100000",
        "model": "qwen/qwen-turbo"
      },
      {
        "name": "数学/推理 → DeepSeek Reasoner",
        "condition": "task.type == 'math' || task.requiresChainOfThought",
        "model": "deepseek/deepseek-reasoner"
      },
      {
        "name": "复杂多工具编排 → Claude Sonnet(兜底)",
        "condition": "task.toolCount >= 3 && task.complexity == 'high'",
        "model": "anthropic/claude-sonnet-4-6"
      },
      {
        "name": "默认 → DeepSeek Chat(通用主力)",
        "condition": "true",
        "model": "deepseek/deepseek-chat"
      }
    ]
  }
}

5.3 Fallback 链与故障恢复

OpenClaw 支持多级 Fallback 链,防止单一 Provider 故障导致 Agent 不可用:

{
  "fallback": {
    "enabled": true,
    "chain": [
      "deepseek/deepseek-chat",
      "qwen/qwen-plus",
      "anthropic/claude-sonnet-4-6"
    ],
    "triggerOn": ["rate_limit", "timeout", "api_error"],
    "maxAttempts": 3
  }
}

注意:Fallback 链中的模型切换会被记录在 OpenClaw 的审计日志中(参见第 024 篇可观测性),便于事后分析 Provider 稳定性。

5.4 成本实战估算

以月均 10,000 次复杂 Agent 任务(平均每次消耗 3K 输入 + 1K 输出 tokens)为例,不同策略的月度成本对比:

策略 主要模型 月均成本(美元) 说明
纯 Claude Sonnet Anthropic $180 基准成本
纯 DeepSeek V3.2 DeepSeek $13.7 降本 92.4%
纯 Qwen Plus Alibaba ~$11.2(约¥80) 降本 93.8%
混合路由策略 国产主力+Claude兜底 ~$20–25 最优性价比

六、国内环境常见问题与解决方案

6.1 常见错误代码速查

在国内环境接入 DeepSeek / Qwen 时,以下错误最为常见:

错误信息 根本原因 解决方案
Unknown provider: deepseek OpenClaw 版本低于 v2026.3.23 升级:npm install -g openclaw@latest
Anthropic Fallback triggered 配置了 Fallback 链,主 Provider 不可用 检查 API Key 有效性;查看 openclaw logs
Rate limit exceeded DeepSeek API 默认 QPS 限制 配置重试间隔:openclaw config set deepseek.rateLimitDelay 1000
Connection timeout 出口 IP 到 DeepSeek 端点延迟过高 配置超时:network.requestTimeout 60000;或改用 OpenRouter 中转
Invalid API Key Key 格式错误或已过期 重新生成并通过 config set 更新

6.2 通过 NVIDIA NIM 免费白嫖 DeepSeek

NVIDIA NIM(NVIDIA Inference Microservices)提供 DeepSeek V3.2 的免费推理端点,作为 DeepSeek 官方 API 的零成本备用方案:

# 配置 NVIDIA NIM 端点(需要 NVIDIA 账号)
openclaw config set deepseek.baseUrl "https://integrate.api.nvidia.com/v1"
openclaw config set deepseek.apiKey "$NVIDIA_API_KEY"
openclaw config set deepseek.model "deepseek-ai/deepseek-v3"

NVIDIA NIM 的免费额度为每月 1,000 次 API 调用,适合个人开发者测试使用(数据来源:NVIDIA Developer 官网,2026-03)。


七、总结

OpenClaw v2026.3.23 将 DeepSeek V3.2 和通义千问 Qwen 提升为一级 Provider,是国内 AI Agent 生态的一个重要拐点。DeepSeek V3.2 以旗舰模型 1/50 的成本实现接近 GPT-4o 水准的综合能力,特别适合作为中文 Agent 的主力模型;通义千问 Qwen 系列凭借百万 Token 上下文和阿里生态的深度集成,在长文档处理和中文创作领域占据独特优势。

本文核心结论

  • 新手上路:使用 openclaw onboard --auth-choice deepseek-api-key 一键配置 DeepSeek,5 分钟内即可用上国产大模型驱动的 AI Agent
  • 生产优化:采用混合路由策略,将 80% 的常规任务路由到 DeepSeek V3.2,复杂工具编排任务保留 Claude/GPT-4o 作为兜底,综合降本可达 90%+
  • 中文场景:Qwen Plus 在中文写作和内容创作上有天然优势,Qwen Turbo 的 1M Token 上下文是处理超长中文文档的最佳选择
  • 稳定性保障:配置三层 Fallback 链(DeepSeek → Qwen → Claude),结合 OpenClaw 可观测性体系(参见第 024 篇)监控 Provider 健康状态,构建高可用 Agent 基础设施

常见问题解答(FAQ)

Q1:OpenClaw 接入 DeepSeek 需要哪个最低版本?

A:需要 OpenClaw v2026.3.23 及以上版本。低于此版本的 DeepSeek 接入依赖社区非官方插件,稳定性和安全性无法保证。升级命令:npm install -g openclaw@latest,升级后通过 openclaw --version 确认版本为 2026.3.23 或更高。

Q2:DeepSeek V3.2 和 DeepSeek-Reasoner 有什么区别?应该选哪个?

A:deepseek-chat(V3.2 标准版)适合 80% 的日常任务,包括通用问答、代码生成、工具调用;deepseek-reasoner(思维链版)会在回答前显式生成推理过程,适合需要多步逻辑分析的数学证明、复杂规划类任务,但推理 Token 的计费约为标准版的 2–3 倍。推荐先从 deepseek-chat 开始,仅在推理密集型 Skill 中切换为 deepseek-reasoner

Q3:通义千问在 OpenClaw 中能调用工具(Tool Calling)吗?

A:可以。通义千问 qwen-maxqwen-plus 均支持 OpenClaw 的工具调用(Function Calling)协议,但多工具并发编排的稳定性弱于 GPT-4o 和 Claude 系列。推荐在工具数量不超过 2 个的场景中使用 Qwen;工具数量 3 个及以上时,建议配置 Fallback 到 Claude Sonnet。

Q4:国内用户接入 DeepSeek API 需要翻墙吗?

A:不需要。DeepSeek 官方 API 端点(platform.deepseek.com)已完成国内备案,国内服务器可直接访问,无需任何代理配置。阿里云百炼的国内端点(dashscope.aliyuncs.com)同样直连可用。

Q5:混合模型路由配置中,如何判断哪些任务应该路由到国产模型?

A:推荐以下原则:(1)中文为主的任务优先 Qwen;(2)涉及数学计算、代码生成的任务优先 DeepSeek V3.2;(3)工具数量 ≤ 2 且上下文 < 50K 的任务可安全交给国产模型;(4)工具数量 ≥ 3 或需要精确指令遵循的关键任务,保留 Claude/GPT-4o 作为主力或兜底。


上一篇[第025篇] OpenClaw v2026.3.22+v2026.3.23 安全与架构全面升级

下一篇[第027篇] OpenClaw 多租户 SaaS 化实战——agentClaw 与 ClawHost 深度对比与部署指南


参考资料

  1. OpenClaw 3.23 Release: DeepSeek, Qwen Pay-As-You-Go, and What Changed — OpenClaw DC 官方博客,2026-03-23
  2. OpenClaw DeepSeek 提供商配置指南 — W3CSchool,2026-03-26
  3. OpenClaw 8 大模型实测对比:GPT-5/Claude/Gemini/DeepSeek 谁最强? — Ofox AI,2026-03-17
  4. 不止 OpenAI:国产大模型如何驱动 OpenClaw 智能体 — OpenClaw 官方博客,2026-02-23
  5. 步子太大扯到胯?“龙虾"12小时紧急救火,DeepSeek与通义千问正式"入编” — AI 内参,2026-03-24
  6. 配置 DeepSeek | OpenClaw 中国社区 — OpenClaw CN,2026-03-23
  7. 阿里云百炼模型定价 — 阿里云官方,2026-03-20
  8. OpenClaw 2026.3.8 + DeepSeek 配置实战 — 掘金,2026-03-11
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐