(二十三)32天GPU测试从入门到精通-Qwen 模型测试day21
目录
引言
Qwen (通义千问) 是阿里巴巴通义实验室开发的大语言模型系列,以出色的中英文能力和完整的工具链著称,是企业级应用的主流选择之一。
在中文大模型领域,Qwen 系列与 DeepSeek 并驾齐驱,代表了国产大模型的最高水平。对于面向中文用户或需要多语言支持的企业应用来说,Qwen 往往是首选方案。其优势不仅体现在语言理解能力上,更在于完整的工具链支持和活跃的社区生态。
掌握 Qwen 模型测试对中文和国际化应用至关重要:
- Qwen 系列有哪些版本? Qwen/Qwen2/Qwen2.5/Qwen3,代际演进快速
- 多语言能力如何? 支持 100+ 语言,尤其在亚洲语言上表现突出
- 推理性能如何? 与 LLaMA/DeepSeek 对比,各有所长
- 有什么独特优势? 工具调用、长上下文、代码能力全面
- 如何部署优化? vLLM/TensorRT-LLM 适配完善
这些问题都指向一个核心主题:Qwen 模型测试。
Qwen 系列的战略地位
选择 Qwen 模型不仅仅是技术决策,更是战略决策。对于中国企业而言,Qwen 提供了几个关键优势:首先是语言能力的本土化优化,在中文理解、中国文化背景知识方面远超国外模型;其次是合规性优势,数据安全和隐私保护符合国内法规要求;第三是生态支持,阿里云提供的完整工具链降低了部署门槛。
从技术演进角度看,Qwen 系列保持了快速的迭代节奏。从 2023 年的第一代 Qwen,到 2024 年的 Qwen2/Qwen2.5,再到 2025 年的 Qwen3,每一代都在架构、性能、功能上有显著提升。这种持续演进能力对于需要长期投入的企业来说至关重要。
测试的重要性
为什么需要专门针对 Qwen 进行系统测试?原因在于大模型的性能表现高度依赖于具体应用场景。一个在基准测试中表现优秀的模型,在特定业务场景下可能并不理想。通过系统测试,我们可以:
第一,验证模型在目标场景下的实际表现,包括准确率、响应速度、资源消耗等关键指标。第二,对比不同版本和配置的差异,找到最优方案。第三,发现潜在问题和边界情况,制定应对策略。第四,建立性能基线,为后续优化和扩容提供依据。
本章将带你全面了解 Qwen 模型的测试方法,从架构原理到性能 benchmark,从多语言支持到实战部署,为你提供完整的测试指南。
Qwen 系列概览
┌─────────────────────────────────────────────────────────────────────┐
│ Qwen 模型系列演进 │
├─────────────────────────────────────────────────────────────────────┤
│ │
│ Qwen (第一代): │
│ ┌─────────────────────────────────────────────────────────────┐ │
│ │ 模型:1.8B/7B/14B/72B │ │
│ │ 特点:中英文双语,上下文 8K │ │
│ │ 时间:2023 年 │ │
│ └─────────────────────────────────────────────────────────────┘ │
│ ↓ │
│ Qwen1.5 (过渡版): │
│ ┌─────────────────────────────────────────────────────────────┐ │
│ │ 模型:0.5B/1.8B/7B/14B/32B/72B/110B │ │
│ │ 特点:架构优化,GQA 注意力 │ │
│ │ 时间:2024 年初 │ │
│ └─────────────────────────────────────────────────────────────┘ │
│ ↓ │
│ Qwen2 (第二代): │
│ ┌─────────────────────────────────────────────────────────────┐ │
│ │ 模型:0.5B/1.5B/7B/57B-A14B/72B │ │
│ │ 特点:多语言 100+,上下文 128K,MoE 架构 │ │
│ │ 时间:2024 年中 │ │
│ └─────────────────────────────────────────────────────────────┘ │
│ ↓ │
│ Qwen2.5 (优化版): │
│ ┌─────────────────────────────────────────────────────────────┐ │
│ │ 模型:0.5B/3B/7B/14B/32B/72B │ │
│ │ 特点:代码/数学增强,架构优化,上下文 128K │ │
│ │ 时间:2024 年底 │ │
│ └─────────────────────────────────────────────────────────────┘ │
│ ↓ │
│ Qwen3 (第三代): │
│ ┌─────────────────────────────────────────────────────────────┐ │
│ │ 模型:8B/32B/235B-A22B (MoE) │ │
│ │ 特点:混合注意力,多 token 预测,上下文 256K │ │
│ │ 时间:2025 年中 │ │
│ └─────────────────────────────────────────────────────────────┘ │
│ │
└─────────────────────────────────────────────────────────────────────┘
Qwen 系列模型介绍
Qwen2.5 架构
┌─────────────────────────────────────────────────┐
│ Qwen2.5 架构特性 │
├─────────────────────────────────────────────────┤
│ │
│ 基础架构: │
│ ├── Transformer Decoder-only │
│ ├── GQA (Grouped Query Attention) │
│ ├── SwiGLU 激活函数 │
│ └── RoPE 位置编码 + YaRN 扩展 │
│ │
│ 模型规格 (以 72B 为例): │
│ ├── 参数量:72B │
│ ├── 注意力头:64 (Q/K), 8 (V) │
│ ├── 词表大小:151.9k tokens │
│ └── 上下文:128K tokens (可扩至 256K) │
│ │
│ 多语言支持: │
│ ├── 支持语言:100+ │
│ ├── 重点语言:中/英/法/德/西/日/韩等 │
│ └── 训练数据:多语言混合 │
│ │
│ 专项优化: │
│ ├── 代码:支持 90+ 编程语言 │
│ ├── 数学:GSM8K/MATH 优化 │
│ ├── 长文本:128K 上下文理解 │
│ └── 工具调用:Function Calling 支持 │
│ │
└─────────────────────────────────────────────────┘
Qwen3 新特性
┌─────────────────────────────────────────────────┐
│ Qwen3 新特性 │
├─────────────────────────────────────────────────┤
│ │
│ 混合注意力: │
│ ├── GQA + Local Attention 结合 │
│ ├── 长序列效率提升 50% │
│ └── 256K 上下文显存降低 40% │
│ │
│ 多 Token 预测: │
│ ├── 一次预测 2-4 个 token │
│ ├── 吞吐提升 2-3x │
│ └── 延迟降低 30-40% │
│ │
│ MoE 架构 (235B 版本): │
│ ├── 总参数:235B │
│ ├── 激活参数:22B │
│ ├── 专家数:128 │
│ └── 每 token 激活:8 专家 +1 共享 │
│ │
│ 视觉语言: │
│ ├── Qwen3-VL: 支持图像理解 │
│ ├── 图文对话:高精度 OCR │
│ └── 视觉推理:图表/公式/ diagram │
│ │
└─────────────────────────────────────────────────┘
架构演进
关键改进
┌────────────────────────────────────────────────────────────────────┐
│ Qwen 架构演进对比 │
├──────────────┬─────────────┬─────────────┬─────────────┬──────────┤
│ 特性 │ Qwen │ Qwen2 │ Qwen2.5 │ Qwen3 │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 注意力 │ MHA │ GQA │ GQA │ 混合 │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 词表大小 │ 151k │ 151k │ 151k │ 200k │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 上下文 │ 8K │ 128K │ 128K │ 256K │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ MoE 支持 │ ✗ │ ✓ (57B) │ ✓ (57B) │ ✓ │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 多 Token │ ✗ │ ✗ │ ✗ │ ✓ │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 视觉支持 │ ✗ │ ✗ │ ✗ │ ✓ │
└──────────────┴─────────────┴─────────────┴─────────────┴──────────┘
性能提升
┌─────────────────────────────────────────────────┐
│ Qwen 代际性能提升 │
├─────────────────────────────────────────────────┤
│ │
│ Qwen → Qwen2: │
│ ├── MMLU: +8-10% │
│ ├── GSM8K: +12-15% │
│ ├── HumanEval: +10-12% │
│ └── 多语言:+20-25% │
│ │
│ Qwen2 → Qwen2.5: │
│ ├── MMLU: +3-5% │
│ ├── GSM8K: +8-10% │
│ ├── HumanEval: +5-8% │
│ └── 推理速度:+15-20% │
│ │
│ Qwen2.5 → Qwen3: │
│ ├── MMLU: +5-7% │
│ ├── GSM8K: +10-12% │
│ ├── HumanEval: +8-10% │
│ └── 推理速度:+40-50% (多 token) │
│ │
└─────────────────────────────────────────────────┘
多语言支持测试
支持语言
┌─────────────────────────────────────────────────┐
│ Qwen 多语言支持 │
├─────────────────────────────────────────────────┤
│ │
│ 重点支持 (⭐⭐⭐⭐⭐): │
│ ├── 中文 (简体/繁体) │
│ ├── 英文 │
│ ├── 法语 │
│ ├── 德语 │
│ ├── 西班牙语 │
│ ├── 日语 │
│ └── 韩语 │
│ │
│ 良好支持 (⭐⭐⭐⭐): │
│ ├── 阿拉伯语 │
│ ├── 俄语 │
│ ├── 葡萄牙语 │
│ ├── 意大利语 │
│ ├── 泰语 │
│ └── 越南语 │
│ │
│ 基本支持 (⭐⭐⭐): │
│ ├── 其他 80+ 语言 │
│ ├── 覆盖全球 90%+ 人口 │
│ └── 持续扩展中 │
│ │
└─────────────────────────────────────────────────┘
多语言 Benchmark
┌────────────────────────────────────────────────────────────────────┐
│ 多语言 Benchmark 对比 │
├──────────────────┬─────────────┬─────────────┬─────────────────────┤
│ 语言/Benchmark │ Qwen2.5 │ LLaMA-3 │ DeepSeek-V3 │
├──────────────────┼─────────────┼─────────────┼─────────────────────┤
│ 中文 (C-Eval) │ 86.5% │ 62.3% │ 85.2% │
│ 英文 (MMLU) │ 82.3% │ 82.0% │ 78.5% │
│ 法语 (FraMELU) │ 75.2% │ 68.5% │ 65.8% │
│ 德语 (GerMELU) │ 74.8% │ 67.2% │ 64.5% │
│ 日语 (JGLUE) │ 78.5% │ 65.8% │ 72.3% │
│ 韩语 (KMMLU) │ 76.2% │ 63.5% │ 70.8% │
│ 平均 │ 78.9% │ 68.2% │ 72.8% │
└──────────────────┴─────────────┴─────────────┴─────────────────────┘
注:Qwen 在多语言任务上表现最优,尤其是亚洲语言
推理性能 benchmark
vLLM 性能测试
#!/usr/bin/env python3
# qwen_vllm_benchmark.py - Qwen vLLM 性能测试
import time
import requests
import statistics
def benchmark_qwen(base_url: str = "http://localhost:8000"):
"""Qwen 性能基准测试"""
print("="*70)
print("Qwen 性能基准测试")
print("="*70)
# 多语言测试提示
prompts = {
'中文': "请介绍一下人工智能。",
'英文': "Please introduce artificial intelligence.",
'日语': "人工知能について教えてください。",
'代码': "请用 Python 实现一个快速排序算法。",
}
results = {}
for lang, prompt in prompts.items():
print(f"\n{lang} 测试:")
print("-"*70)
start = time.perf_counter()
response = requests.post(
f"{base_url}/v1/chat/completions",
json={
"model": "qwen",
"messages": [{"role": "user", "content": prompt}],
"max_tokens": 200,
"temperature": 0.7
}
)
elapsed = time.perf_counter() - start
if response.status_code == 200:
data = response.json()
content = data['choices'][0]['message']['content']
tokens = len(content.split())
tokens_per_sec = tokens / elapsed
results[lang] = {
'tokens': tokens,
'time': elapsed,
'tokens_per_sec': tokens_per_sec
}
print(f" Tokens: {tokens}, Time: {elapsed:.2f}s, Speed: {tokens_per_sec:.1f} tok/s")
print()
print("="*70)
print("测试结果汇总:")
for lang, result in results.items():
print(f" {lang}: {result['tokens_per_sec']:.1f} tokens/s")
print("="*70)
return results
if __name__ == "__main__":
benchmark_qwen()
性能参考值
┌────────────────────────────────────────────────────────────────────┐
│ Qwen 推理性能参考 (A100 80GB) │
├──────────────────┬─────────────┬─────────────┬─────────────────────┤
│ 配置 │ 吞吐量 │ 延迟 │ 显存占用 │
│ │ (tok/s) │ (ms) │ (GB) │
├──────────────────┼─────────────┼─────────────┼─────────────────────┤
│ Qwen2.5-7B │ │ │ │
│ FP16, batch=1 │ 130-150 │ 40-50 │ 14-16 │
│ INT4, batch=1 │ 190-220 │ 28-38 │ 7-9 │
│ INT4, batch=32 │ 2600-3000 │ 140-180 │ 11-13 │
├──────────────────┼─────────────┼─────────────┼─────────────────────┤
│ Qwen2.5-72B │ │ │ │
│ FP16, 8xTP │ 70-90 │ 90-130 │ 140-160 │
│ INT4, 4xTP │ 100-130 │ 70-100 │ 60-80 │
│ INT4, 8xTP │ 180-220 │ 55-80 │ 60-80 │
├──────────────────┼─────────────┼─────────────┼─────────────────────┤
│ Qwen3-32B │ │ │ │
│ FP16, 1xA100 │ 90-110 │ 50-70 │ 64-72 │
│ INT4, 1xA100 │ 140-170 │ 35-50 │ 32-40 │
├──────────────────┼─────────────┼─────────────┼─────────────────────┤
│ Qwen3-235B (MoE) │ │ │ │
│ MoE, 8xH100 │ 100-130 │ 90-130 │ 200-240 │
│ MoE, 16xH100 │ 180-220 │ 70-100 │ 200-240 │
└──────────────────┴─────────────┴─────────────┴─────────────────────┘
注:测试条件 vLLM,实际性能受配置影响
应用场景分析
场景推荐
┌─────────────────────────────────────────────────┐
│ Qwen 应用场景推荐 │
├─────────────────────────────────────────────────┤
│ │
│ 企业客服系统: │
│ ├── 推荐:Qwen2.5-7B/32B │
│ ├── 优势:多语言支持,中文流畅 │
│ ├── 部署:单卡/双卡 A10/A100 │
│ └── 场景:智能客服、工单处理 │
│ │
│ 代码助手: │
│ ├── 推荐:Qwen2.5-Coder-32B │
│ ├── 优势:90+ 语言支持,代码理解强 │
│ ├── 部署:单卡 A100/双卡 A10 │
│ └── 场景:IDE 插件、Code Review、测试生成 │
│ │
│ 数据分析: │
│ ├── 推荐:Qwen2.5-72B │
│ ├── 优势:长上下文,逻辑推理强 │
│ ├── 部署:4-8 卡 A100/H100 │
│ └── 场景:报表分析、洞察提取 │
│ │
│ 多语言应用: │
│ ├── 推荐:Qwen2.5-72B 或 Qwen3-32B │
│ ├── 优势:100+ 语言,翻译质量高 │
│ ├── 部署:2-4 卡 A100 │
│ └── 场景:国际化产品、翻译服务 │
│ │
│ 个人/本地使用: │
│ ├── 推荐:Qwen2.5-7B (INT4) │
│ ├── 优势:轻量,质量不错 │
│ ├── 部署:RTX 3090/4090 或 CPU │
│ └── 场景:个人助手、学习研究 │
│ │
└─────────────────────────────────────────────────┘
代码能力对比
┌────────────────────────────────────────────────────────────────────┐
│ 代码能力 Benchmark 对比 │
├──────────────────┬─────────────┬─────────────┬─────────────────────┤
│ Benchmark │ Qwen2.5 │ LLaMA-3 │ DeepSeek │
├──────────────────┼─────────────┼─────────────┼─────────────────────┤
│ HumanEval │ 82.5% │ 82.0% │ 80.5% │
│ HumanEval+ │ 75.2% │ 72.5% │ 74.8% │
│ MBPP │ 85.8% │ 83.2% │ 84.5% │
│ MultiPL-E (平均)│ 78.5% │ 72.8% │ 75.2% │
│ LiveCodeBench │ 45.2% │ 42.5% │ 44.8% │
└──────────────────┴─────────────┴─────────────┴─────────────────────┘
注:Qwen 代码能力处于第一梯队,多语言代码支持优秀
实战部署
vLLM 部署 Qwen
#!/bin/bash
# deploy_qwen_vllm.sh - vLLM 部署 Qwen
echo "=========================================="
echo " vLLM 部署 Qwen2.5"
echo "=========================================="
# 配置
MODEL=${MODEL:-"Qwen/Qwen2.5-72B-Instruct"}
PORT=${PORT:-8000}
TP_SIZE=${TP_SIZE:-8}
echo ""
echo "部署配置:"
echo " 模型:$MODEL"
echo " 端口:$PORT"
echo " 张量并行:$TP_SIZE"
echo ""
# 启动服务
python3 -m vllm.entrypoints.openai.api_server \
--model $MODEL \
--host 0.0.0.0 \
--port $PORT \
--tensor-parallel-size $TP_SIZE \
--max-model-len 131072 \
--gpu-memory-utilization 0.9 \
--enable-chunked-prefill \
--trust-remote-code
echo ""
echo "=========================================="
echo " Qwen 服务已启动"
echo "=========================================="
echo ""
echo "API 端点:http://localhost:$PORT/v1"
TensorRT-LLM 部署 Qwen
#!/bin/bash
# deploy_qwen_trtllm.sh - TensorRT-LLM 部署 Qwen
echo "=========================================="
echo " TensorRT-LLM 部署 Qwen"
echo "=========================================="
# 配置
MODEL=${MODEL:-"Qwen/Qwen2.5-72B-Instruct"}
OUTPUT_DIR=/models/qwen2.5-72b-trt
TP_SIZE=${TP_SIZE:-8}
echo ""
echo "部署配置:"
echo " 模型:$MODEL"
echo " 输出目录:$OUTPUT_DIR"
echo " 张量并行:$TP_SIZE"
echo ""
# 构建 Engine
echo "构建 TensorRT Engine..."
trtllm-build \
--checkpoint_dir $OUTPUT_DIR/checkpoint \
--output_dir $OUTPUT_DIR \
--max_batch_size 16 \
--max_input_len 4096 \
--max_output_len 2048 \
--max_beam_width 1 \
--tensor_parallel_size $TP_SIZE \
--dtype float16
echo ""
echo "=========================================="
echo " Qwen TensorRT Engine 已构建"
echo "=========================================="
llama.cpp 部署 Qwen
#!/bin/bash
# deploy_qwen_llamacpp.sh - llama.cpp 部署 Qwen
echo "=========================================="
echo " llama.cpp 部署 Qwen"
echo "=========================================="
# 配置
MODEL=${MODEL:-"~/.cache/llama.cpp/models/Qwen2.5-7B-Instruct-Q4_K_M.gguf"}
PORT=${PORT:-8080}
N_GPU=${N_GPU:-35}
echo ""
echo "部署配置:"
echo " 模型:$MODEL"
echo " 端口:$PORT"
echo " GPU 层数:$N_GPU"
echo ""
# 启动服务
cd /opt/llama.cpp
./server \
-m $MODEL \
--host 0.0.0.0 \
--port $PORT \
-ngl $N_GPU \
-c 32768 \
--batch-size 512
echo ""
echo "=========================================="
echo " Qwen 服务已启动"
echo "=========================================="
选型建议
模型选择
┌─────────────────────────────────────────────────┐
│ Qwen 模型选择指南 │
├─────────────────────────────────────────────────┤
│ │
│ Qwen2.5-0.5B/3B: │
│ ├── 场景:边缘设备、移动端 │
│ ├── 显存:1-3GB (INT4) │
│ ├── 速度:100+ tok/s (CPU) │
│ └── 用途:简单问答、分类任务 │
│ │
│ Qwen2.5-7B: │
│ ├── 场景:个人使用、开发测试 │
│ ├── 显存:5-7GB (INT4) │
│ ├── 速度:30-50 tok/s (CPU), 100+ (GPU) │
│ └── 用途:日常助手、原型开发 │
│ │
│ Qwen2.5-14B/32B: │
│ ├── 场景:企业应用、专业任务 │
│ ├── 显存:10-20GB (INT4) │
│ ├── 速度:50-80 tok/s (单卡 A100) │
│ └── 用途:客服系统、代码助手 │
│ │
│ Qwen2.5-72B: │
│ ├── 场景:高质量应用、复杂任务 │
│ ├── 显存:48-80GB (INT4) │
│ ├── 速度:20-40 tok/s (单卡 H100) │
│ └── 用途:核心业务、专业分析 │
│ │
│ Qwen3-32B/235B: │
│ ├── 场景:SOTA 应用、前沿研究 │
│ ├── 显存:32GB/200GB+ (INT4) │
│ ├── 速度:80-150 tok/s (多卡) │
│ └── 用途:最复杂任务、研究 │
│ │
└─────────────────────────────────────────────────┘
综合对比
┌────────────────────────────────────────────────────────────────────┐
│ Qwen vs LLaMA vs DeepSeek 最终对比 │
├──────────────┬─────────────┬─────────────┬─────────────┬──────────┤
│ 维度 │ Qwen2.5 │ LLaMA-3 │ DeepSeek │ 推荐 │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 中文能力 │ ⭐⭐⭐⭐⭐ │ ⭐⭐⭐ │ ⭐⭐⭐⭐⭐ │ Q/D │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 英文能力 │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ L │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 多语言 │ ⭐⭐⭐⭐⭐ │ ⭐⭐⭐ │ ⭐⭐⭐ │ Q │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 代码能力 │ ⭐⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ Q │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 数学推理 │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐⭐ │ D │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 生态支持 │ ⭐⭐⭐⭐ │ ⭐⭐⭐⭐⭐ │ ⭐⭐⭐ │ L │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 推理成本 │ ⭐⭐⭐⭐ │ ⭐⭐⭐ │ ⭐⭐⭐⭐⭐ │ D │
├──────────────┼─────────────┼─────────────┼─────────────┼──────────┤
│ 综合推荐 │ ★★★★☆ │ ★★★★☆ │ ★★★★☆ │ 看场景 │
└──────────────┴─────────────┴─────────────┴─────────────┴──────────┘
总结
今天学到的内容
- ✅ Qwen 系列模型介绍:演进历史、Qwen2.5/Qwen3 特性
- ✅ 架构演进:关键改进、性能提升
- ✅ 多语言支持测试:100+ 语言、Benchmark 对比
- ✅ 推理性能 benchmark:vLLM 测试、性能参考
- ✅ 应用场景分析:场景推荐、代码能力对比
- ✅ 实战部署:vLLM/TensorRT-LLM/llama.cpp
- ✅ 选型建议:模型选择、综合对比
第四部分总结
🎉 第四部分:大语言模型推理 (8 篇) 已全部完成!
| 文章 | 主题 | 状态 |
|---|---|---|
| Day 14 | LLM 推理引擎概览 | ✅ |
| Day 15 | vLLM 部署与性能测试 | ✅ |
| Day 16 | TensorRT-LLM 部署与优化 | ✅ |
| Day 17 | SGLang 特性与测试 | ✅ |
| Day 18 | llama.cpp CPU/GPU 混合推理 | ✅ |
| Day 19 | LLaMA 系列模型测试 | ✅ |
| Day 20 | DeepSeek 模型测试 | ✅ |
| Day 21 | Qwen 模型测试 | ✅ |
系列总进度
全系列进度:21/32 篇 (66%)
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)